百科问答小站 logo
百科问答小站 font logo



你为什么认为完全人工智能可以实现? 第1页

  

user avatar   MarryMea 网友的相关建议: 
      

完全人工智能(Full AI)源自二十世纪六七十年代盲目乐观的“Fully intelligent machines”,是强人工智能(Artificial General Intelligence)、通用人工智能(General AI)的同义词。由于人类智能的实际表现水准并没有多高,看起来让机器超越人类这个水平是完全可以实现的。

但是要注意人类根本就没有完备的智能水平评价方法,针对人的智商测试也经常被人质疑乃至怒斥,人类目前无法评价与人类大相径庭的东西的智能——无论是计算机还是海豚之类生物。

  • 2014年,一项研究检测了Siri等市面上常见的AI的智商,最高得到27。2017年,类似的研究再次检测常见AI的智商,最高得到47[1]
  • 这意味着2017年的常见AI的认知能力相当于6岁的儿童。
  • 与此同时,Siri等常见AI可以做到6岁儿童做不到的许多事情。
  • 成年人类的平均智商为100。
  • 那么,你可以很容易地想象,人类继续改进下去的人工智能有一天会具有超过所有人的智商,而且可以做到所有人都做不到的事。

人类智能并不是通用智能,在许多领域远弱于计算机。但是,人类智能每次从一个标志性的领域大败而逃,人们便不再将那个领域作为智能的象征——你可以回顾一下过去几十年里“人机大战”过的数字运算、国际象棋、综艺节目抢答、围棋等等。

  • 现代弱人工智能可以做的事,例如做大规模的算术运算、解微积分、下各种棋胜过人类,过去都曾经被人们以为是很能表现人的智能水平的。

在网络上谈论这类话题的时候,有一些基础的定义问题。

例如,一些文章声称“强人工智能能够明显表现出与人类相似的智能水平,能够全方位、跨领域地解决人类所遇到的问题。 到达该阶段的人工智能技术应该能够通过图灵测试,并且替代人类完成大部分的日常工作”。

  • 这是自诩人类智能为通用智能,纯属搞笑。你想象一下,你买了一台最新的电脑,它“具有人类水平的智能”,你问它1024*235等于多少,它口算了半分钟。
  • 原版图灵测试的要求其实相当低,早就被通过了。
  • 与此同时,现代人通常无法完成古猿的日常工作“爬到树上在多棵树之间跳来跳去”。

还要注意的是,即使强人工智能在物理或哲学上被证明为“可能”,也不能推导出“人类的智能水平足够研制出强人工智能”。

人脑的性能:

根据现实研究,一个突触约可存储4.7比特的信息。整个人脑的硬盘容量约910TB,而且你从来都不会用到多少

神经细胞通过轴突和树突相互发生联系,传递信息,形成神经网络,构成大脑记忆和思维的物质基础。突触是记忆的物质储存结构基础,每个突触可存储约4.7比特信息[2],整个人脑约可储存910TB信息(作为对比,2017年整个互联网约有500万TB信息)。
神经细胞不断有新的突触形成,也不断有旧的突触消失。动物受到外界刺激时,突触形成和消失的数量骤然增加。据观察,有些突触只存在几个小时,而另外一些则长时间存在并可能固定下来形成新的神经线路。

研究表明一个人在每个特定领域可以掌握约10万个概念:

  • 世界级国际象棋大师约能掌握10万局棋谱;
  • 莎士比亚的词汇量约为2.9万,这些单词能表达的含义接近10万个;
  • 医疗机器的开发也支持掌握10万个医学概念的机器可以达到同一个领域的人类医生九成的效果。

设每个专业方面的知识占一个普通人知识总量的1%、每个概念需要0.1MB~1MB来储存,按照库兹韦尔在《奇点临近》里给出的估算[3]一个普通人的知识总量约为1.13TB,距离910TB的硬盘容量限制还很遥远。因此,剪枝机制的存在不是因为硬盘容量限制[4]

在硬盘容量之外,人脑的记忆能力就不那么好看了:

人脑的工作记忆(约等于内存)是4,同时能跟踪最多四个事物[5]。事物可以是人、物件、单词、数字等等。这比计算机要弱得多。不过,四个事物的视觉与听觉信息等附属物可以有超过30G的缓存。

人脑的短时记忆的半衰期只有7秒,容量只有7±2个信息块。大部分暂存信息在11秒内丢失。

对人脑计算力的估算:

卡内基·梅隆大学的机器人专家汉斯·莫拉维茨分析了视网膜内的神经图像处理电路。他认为视网膜每秒执行一千万次图像边缘检测和移动检测。基于几十年建造机器人视觉系统的经验,他估计每次重现人类的视觉检测需要机器执行约一百条指令,这意味着复制视网膜这一部分的图像处理功能需要十亿次计算每秒。视网膜上的神经元总重0.02克,是人类大脑重量的七万五千~十万分之一。因此,复制整个人脑的计算能力需要每秒执行七十五万亿~一百万亿条指令。

劳埃德·瓦特和他的同事们在用计算机模拟人类听觉系统时发现,机器至少需要每秒计算一千亿次来在接近人类的架构下和人一样好地确定声源的位置。听觉皮层约占人脑皮层的千分之一,因此人脑的总计算力在一百万亿次每秒以上。

得克萨斯大学的模拟小脑区域实验估计,模拟每个神经元需要一万次计算每秒。这样整个大脑需要约一千万亿次计算每秒。

据此,有一定冗余度的估计是人脑的总计算力在一亿亿次每秒的程度

这个计算力在2020年的标准下仍然相当大。中国的天河二号已经超越了这个计算力,不过目前人脑还是远比它小而节能。意识清醒的成人大脑的功率约为20瓦,而天河二号光是电费就突破天际。

人脑“软件”神话的实态:

人脑倚仗的“软件”,自然选择塑造出的一部分脑功能,也远不像某些文章吹嘘的那么神奇。面部识别就是其中之一。

  • 猕猴实验表明,灵长类对同类脸部的识别是由大脑中200多个不同神经元共同编码完成的,每个神经元会对一张脸不同特征的参数组合进行相应比对。研究人员记录了视觉系统最高级的神经元信号,可以看到那里没有神秘莫测的黑箱,使用的比对方式是地球生物典型的简单粗暴。
  • 2019年发表的一项研究[6]显示,对于14年间的视频记录中的一千万张野生黑猩猩面部数据,人工智能面部识别达到了92.5%的个体识别率、96.2%的性别识别成功率。2020年发表的一项研究[7]显示,基于65000张大熊猫面部图像的人工智能面部识别达到了95%的个体识别率。这表明面部图像可能是识别哺乳动物个体的通用特征。

以下引用自《中国科学报》张行勇:

西安电子科技大学教授苗启广团队与西北大学研究人员展开合作,通过设计具有多路关注机制的深度神经网络模型,研发出一套较为完整的动物面部特征检测、追踪和识别系统“Tri-AI”,实现了适用于多物种个体识别的研究目标。近日,相关成果发表于《交叉科学》。

研究团队在野外和动物园进行了动物面部数据采集,并建立了动物面部识别数据库。据论文作者之一的郭松涛介绍,Tri-AI系统对41个灵长类物种共计1040只个体的102399幅面部图像,以及4个非灵长类物种共计91只个体的6562幅面部图像进行了实验验证。结果显示,Tri-AI系统对个体数量多于18的21个物种的个体识别准确率为93.8%,远超过人工识别的准确率。此外,该系统可兼容夜视影像的分析,可实现基于夜视图像的个体身份识别,进而可实现全天候的动物研究。

该系统验证了基于多物种的自动个体识别的理论假设的科学性,满足了“无观察者干扰”的行为学研究的理想条件要求,将研究者从对动物个体识别与追踪记录的任务中解放出来,推动了动物行为学研究进展。

相关论文信息:https://doi.org/10.1016/j.isci.

人类现在确实还不擅长写出高效率的软件给人工智能使用,也不知道如何教人工智能自己写出我们想要的高效率软件,更难以看懂人工智能写的大段代码。这不恰恰是我们的智能的问题么。

参考

  1. ^ https://arxiv.org/abs/1709.10242
  2. ^ https://elifesciences.org/articles/10778
  3. ^ 库兹韦尔并不认为一个人可以成为100个领域的专家,其实他认为一个人有7个完整知识块就了不起了,其余部分是并不完整甚至碎片化的
  4. ^ 而是可能涉及脑区可塑性,可以参照:你就是你的大脑 - 赵泠的文章 - 知乎 https://zhuanlan.zhihu.com/p/290760759
  5. ^ https://doi.org/10.1016/j.neuron.2015.07.028
  6. ^ DOI: 10.1126/sciadv.aaw0736
  7. ^ https://doi.org/10.1016/j.biocon.2020.108414



  

相关话题

  如何评价Yann LeCun 说的「要研究机器学习,本科应尽量多学物理和数学课」? 
  我应该从计算机视觉回到做FPGA 吗? 
  苏联计划经济体制能否在大数据与智能决策时代展现出某些优势? 
  有哪些科技公司从辉煌到衰落?因为什么原因? 
  如何评价教育部发文:AI、算法等2018年进入全国高中课程? 
  如何评价b站up主图灵的猫关于tiktok的视频? 
  阿尔法狗已经积分4500了,这个可信吗? 
  人工智能的爆发点究竟是在高校还是在企业? 
  人工智能将会为教育带来哪些改变? 
  《失控玩家》中的游戏有可能实现出来吗? 

前一个讨论
怎样才能在赛博朋克2077黑拳稳赢?
下一个讨论
如何评价《赛博朋克2077》中的中间人?





© 2024-11-22 - tinynew.org. All Rights Reserved.
© 2024-11-22 - tinynew.org. 保留所有权利