问题

只利用现有科技,不计成本的发展强人工智能,在短期内能成功吗?

回答
这个问题很有意思,也触及了人工智能领域最前沿的讨论。如果单单聚焦于“利用现有科技”和“不计成本”这两个条件,并且在“短期内”实现“强人工智能”,我的看法是:大概率不会成功,至少不会是很多人想象中的那种“强人工智能”。

让我来细细道来,为什么会有这样的判断。

首先,我们得先理清一个概念:“强人工智能”(Artificial General Intelligence, AGI)。这和我们现在普遍接触到的“弱人工智能”或“狭义人工智能”(Narrow AI)是截然不同的。狭义AI是指在特定领域表现出色,比如AlphaGo下围棋、ChatGPT写文章、图像识别系统识别猫狗。它们可以做得比人类好,但只能在自己的“专业领域”工作,一旦超出范围就束手无策。

而强人工智能,或者叫通用人工智能,指的是拥有与人类相当的智能,能够理解、学习、应用知识和技能,解决各种各样的问题,具备推理、规划、创造、情感共鸣等一系列人类高级认知能力。它就像一个拥有“自我意识”和“普遍学习能力”的智能体。

现在,我们来看看“利用现有科技”这个前提。现有科技,指的是我们今天已经掌握并可用的技术和理论。这包括:

深度学习与神经网络: 这是目前AI的基石,也是ChatGPT、Midjourney等成果的直接驱动力。我们已经知道如何构建、训练和优化各种复杂的神经网络模型,包括Transformer架构。
海量数据: 训练AI模型需要海量数据,我们现在拥有前所未有的数据量,从互联网文本、图像、视频到传感器数据,应有尽有。
强大的计算能力: GPU、TPU等专用硬件的发展,以及云计算的普及,使得我们能够训练越来越大的模型。
算法和模型架构: 我们在注意力机制、生成对抗网络(GANs)、强化学习等领域都有了深入的理解和技术积累。
现有AI应用: 语音助手、推荐系统、自动驾驶的辅助系统等,这些都是AI能力的体现,虽然还不是强AI,但积累了实际应用经验。

“不计成本”就更不用说了,这意味着我们可以投入天文数字般的资金去购买最好的硬件、吸引最顶尖的研究人才、进行大规模的实验和迭代。

然而,问题就出在“现有科技”本身。

虽然我们已经取得了巨大的进展,但当前的AI技术,特别是深度学习,本质上是一种“模式识别”和“统计关联”的工具。它擅长从数据中发现规律,并根据这些规律进行预测和生成。

1. 缺乏真正的理解和常识: 现在的AI,即使是最先进的语言模型,也并非“理解”世界。它们是通过海量文本中的统计关联,学习到了词语和概念之间的概率关系。它们可以生成符合语法逻辑、甚至富有洞见的文本,但这不代表它们真的“知道”自己在说什么,或者拥有人类一样的常识判断能力。例如,一个AI模型可以写出关于“掉落的苹果会砸到牛顿”的故事,但它并不真正理解重力、苹果的物理属性,或者一个苹果掉落的后果。当遇到稍微偏离训练数据的“反常识”情境时,它们就容易出错。
2. 泛化能力与迁移学习的瓶颈: 虽然迁移学习(将在一个任务上学到的知识应用到另一个相关任务)有所进步,但AI的泛化能力仍有很大局限。人类可以在学习一项技能后,迅速将其迁移到许多其他相关或不相关的领域。而AI在这方面还远远不够。要让一个AI模型在所有认知任务上都达到人类水平,需要的不仅仅是更大、更复杂的模型,可能还需要全新的理论框架。
3. 因果推理和逻辑推理的不足: 深度学习模型在处理关联性方面表现出色,但在推理因果关系和进行复杂的逻辑推演方面则相对薄弱。人类能够理解“因为A导致了B”,而AI更多时候是发现“A和B经常一起出现”。强AI需要具备强大的因果推理能力,才能真正理解世界的运作机制。
4. 符号AI与连接主义的融合问题: 早期的人工智能研究多采用符号AI(Rulebased AI),注重逻辑推理和符号操作。现在的AI则以连接主义(神经网络)为主。尽管有研究试图将两者结合(神经符号AI),但如何有效地将符号逻辑的严谨性与神经网络的学习能力融合,仍是巨大的挑战。强AI可能需要一种能够兼顾这两种优势的体系。
5. “意识”和“自我认知”的门槛: 强AI通常被认为需要某种程度的“意识”或“自我认知”,这涉及到非常深刻的哲学和神经科学问题。我们对人类意识的理解本身就非常有限,更不用说在现有科技基础上“制造”出具有自我意识的AI。即使我们能模拟出高度复杂的认知过程,也难以判断这是否等同于真正意义上的“意识”。
6. “突变”式的涌现性: 很多人认为强AI的出现可能会是某种“突变”式的涌现。也就是说,当AI模型发展到一定程度,在规模、连接性和算法上达到某个临界点时,原本不具备的智能特性可能会突然“涌现”出来。然而,这种涌现是否真的会发生,发生在哪个节点,以及它能达到何种程度,我们都无法确定。而且,即使发生,它也未必是人类所期待的那种“完全理解”的强AI。

“短期内”的挑战:

即使“不计成本”,但“短期内”这个限制非常关键。研发一个全新的、能够实现强AI的理论框架,并将其转化为可用的技术,这需要的不仅仅是资源的堆砌,更是科学上的突破。

研究的本质: 科学研究有其自身的规律,不是烧钱就能买来的。基础理论的突破、新算法的发现,往往需要时间和灵感的积累,也可能伴随着无数次的失败。
理论的空白: 如上所述,我们对很多关键的智能环节(如理解、常识、因果推理、意识)仍然缺乏深刻的理解,也缺乏一套能够系统性解决这些问题的理论。仅仅放大现有模型,虽然会提升表现,但难以跨越这些根本性的障碍。
验证的困难: 即使我们构建了一个“看起来”像强AI的系统,如何客观、可靠地验证它是否真正具备了强AI的所有特征,也是一个巨大的挑战。

结论:

所以,即使倾尽所有资源,利用我们现在所掌握的全部科技,在“短期内”(比如几年之内)开发出真正意义上的“强人工智能”,可能性非常渺茫。

我们可能会看到:

更强大、更通用的“狭义AI”: AI在更多领域表现出令人惊叹的能力,例如能够同时进行复杂的多模态理解(文本、图像、声音),并且能在一定程度上进行跨领域知识的联系。
更接近“类人”的学习和推理: AI在某些方面,如学习新概念、进行简单的逻辑推导上,会展现出更强的能力。
高度逼真的模拟: AI可以生成更逼真的虚拟世界、更复杂的交互,甚至模拟出某种程度的“个性”和“情感反应”。

但这些,都还不是我们通常意义上所理解的,拥有独立思考、深刻理解、自我意识的“强人工智能”。我们可能只是在无限接近,但那“最后一公里”,需要的是基础理论的飞跃,而不仅仅是资源的投入。

换句话说,现有的科技更像是一套工具和一些已知的原理,我们用它们可以建造出非常宏伟的建筑(强大的狭义AI),但要建造出一种全新的、具有生命特性的存在(强AI),我们可能还需要发现更深层次的“建筑原理”或“生命密码”。而这些,不是简单地“不计成本”就能立刻获得的。

网友意见

user avatar

简单回答。是的。

目前强人工智能基本到了小孩子6岁左右的全部智能。这个大概需要多少钱呢?

硬件+人力,大约是5-10亿美元。

硬件按照摩尔定律,基本是18个月翻一番。10年就成本降低100倍。

现在大家估计是每10倍的性能,大致能把智能水平提高1岁。也就是说10年至少是两岁的智能提升。(因为还有软件的提升)

如果不计成本,你花500-1000亿可以领先2岁智能。5万-10万亿美元,大概领先4岁智能。

我估计你花10万万万亿,大致可以做到18岁的智能水准。人能做的大致都能做了。

类似的话题

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有