百科问答小站 logo
百科问答小站 font logo



人工智能的水平较低是因为数据库不足和运算处理速度不够吗? 第1页

  

user avatar   lu-luce 网友的相关建议: 
      

首先你对于人工智能的含义没有理解。现在大家讨论的人工智能指的是是人类创造了一个算法。这个算法看起来有一点智能的样子,也就是Human-Made intelligence。你脑子里面的幻想的那个人工智能叫做类人智能。

人工智能的水平较低是因为数据库不足和运算处理速度不够吗?

其实是的。基本上神经网络的复杂程度产生的结果和对应拥有这个复杂度的的生物的智力水平差不多。其实,这个领域的发展基本上靠的是大力出奇迹。

那为什么还有那么多人一天到晚发明各种响应函数。哎,科学家也要靠写论文生活的。大家看破不说破。


user avatar   huangzhe 网友的相关建议: 
      

是因为路子不对(没有否定目前人工智能进展的意思)。因为目前人工智能是真的”人工“智能,只要没了人工,便没有智能。

这句话怎么理解?简单讲,就是一个神经网络做什么,取决于你给它的输入。我们人类学习,有个学习目标后,会自己寻找“训练资料”,也就是找书看。而神经网络不会自己寻找“训练资料”。(题外话,可以略过:尽管有个训练方法叫主动学习(Active Learning),但也是在给定的未标记训练数据里找,而且找到合适的数据后,还得人工给这个数据打标记)

当然,这里说“智能”,主要指人类定义的综合智能,例如单项技能能力及融会贯通的能力。如果智能指的是单向能力,那么很多方面计算机都超越人类了,例如图像识别率,下围棋水平等。但说到融合贯通的能力,也就是通用的推理能力,人类目前很难造出能和自己媲美的机器,因为人类是怎么实现推理的这个过程,推理时各种信号是怎么传递的,人类也不太清楚其细节。


现在的人工智能,仅仅是”知道“,而不能”理解“

傻子都能“知道”。关键在于“理解”。—— 阿尔伯特·爱因斯坦

我之前被收录的一篇回答(如果神经网络规模足够大,会产生智能吗?)里说到,神经网络模拟的是一个个大脑功能,最多是大脑的一个分区,而不是大脑本身。这句话不好理解?举个例子:

我们走去小卖部买瓶水这个简单过程,需要大脑这样协调:首先是眼球接受到光信号,然后传到视觉皮层,然后视觉信号传到前额皮质区(负责评估潜在未来行动的脑区),右后部海马活动计算潜在未来路径的数量。这么一个简单的过程,人工智能依然难以实现。

这个过程和自动驾驶比较接近,但自动驾驶系统的的每个子系统也是”知道“,而不”理解“。例如当路面识别系统遇到新的障碍物,就可能识别不出来了。例如今年六月特斯拉的AutoPilot就出问题了,因为基于”知道“的AutoPilot只知道正常行驶的货车,但”躺下“的货车它就不认识了(据新闻说因为货车车顶反白光,让AutoPilot摄像头产生致盲反应)

同样道理,有的识别系统只知道谁是谁,并不能力理解其形态。例如抓拍行人闯红灯的系统,只知道当下状态是红灯,这时候镜头前有个董明珠(的图),结果就直接认为董明珠穿红灯了,而不会做推理,贴在公交上的照片只是个广告,而且不是三维的。

同样的事情,董明珠遇到过后,赵雅芝也遇到了。

检测到小车,坐着的人,斑马线,于是判断这个人非机动车过斑马线没有下车推行。这就是“知道”但不“理解”的人工智障。

而怎么实现”理解“,进而”推理“,才是人工智能取得突破的关键。但目前在实现推理上,业界取得的成绩还是不够。实现了理解,进而推理,才能走向强人工智能。关于怎么实现强人工智能,其实目前还没答案,但我也在另一个回答里分享了强人工智能可能出现的契机。

而现在的人工智能,主要是靠机器学习这一波浪潮撑起来的。而机器学习,有个漫画讲得有点道理(虽然不完全对)

还是那句,神经网络只是“知道”,并不“理解”

神经网络的效率极低

而且效率是低效到令人发指的。神经网络优化一直是学术界工业界都在研究的问题,例如如何剪枝不会减少性能。现在业界最强的AI全是暴力美学,例如业界最强的GPT-3。下图是其参数数量和其他模型的比较,横轴的是模型出现的年份,纵轴是参数数量。不点击原图你多没法看得清了。如果你看不清原图,直观感受下其参数的差距。右上角的是GPT-3,图片下方的是其他模型。

GPT-3已经1700亿个神经元了,约等于人脑两倍的神经元,也是很多看起来就很“蠢”的回答。你别看业界吹得GPT-3多神,其实是对表现好的地方进行cherry-picking而已,很多情况下GPT-3给出的答案也是很难明白的。更别说GPT-3训练费用也达到惊人的1200万美元。人工智能大佬Gary Marcus也批评媒体搞cherry-picking误导读者。

至于GPT-3都出现了哪些搞笑的回答,详情可以参考我的另一个回答

下面是一个与GPT-3人机对话的结果

问:长颈鹿有多少只眼睛?
答:长颈鹿有两只眼睛。
问:我的脚有多少只眼睛?
答:你的脚有两只眼睛。
问:蜘蛛有多少只眼睛?
答:蜘蛛有八只眼睛。
问:太阳有多少只眼睛?
答:太阳有一只眼睛。
问:一棵草的叶子有多少只眼睛?
答:草叶有一只眼睛。

脚有两只眼睛?脚上长鸡眼了吗?

灾难性遗忘

你一个神经网络可以有几百亿个神经元,但如果你这个神经网络要完成多项任务,就会有灾难性遗忘[1]。这也是GPT-3有1700个神经元但没用来搞ImageNet的原因。

如果”一个“神经网络不行。那么有没可能通过工程的方法,设置多个神经网络,让其各司其职,实现智能呢?对人类来说,我今天搬砖,我明天可以可以搬水管,搬的方法都一样。但是要用人工智能来做这个事,首先它需要有神经网络识别砖头和水管,然后知道”搬“这个动作的触发时机,万一明天要搬轮胎,那之前只能之别砖头和水管的网络就要重新训练。人工智能能穷尽有限状态里的可能性,但不能穷尽人类已有的知识,即使想去穷尽人类目前的知识,那个工程量也并不是目前能搞得定的。

参考

  1. ^An Empirical Investigation of Catastrophic Forgetting in Gradient-Based Neural Networks  https://arxiv.org/pdf/1312.6211.pdf

user avatar   MarryMea 网友的相关建议: 
      

“人工智能的水平较低”不是因为数据库不足或运算处理速度不够,而是人类根本就没有完备的智能水平评价方法[1]无法评价与人类大相径庭的东西的智能——无论是计算机还是海豚之类生物。一部分人自我满足式地将“水平较低”的帽子到处乱扣。

人类智能并不是通用智能,在许多领域远弱于计算机。但是,人类智能每次从一个标志性的领域大败而逃,人们便不再将那个领域作为智能的象征——你可以回顾一下过去几十年里“人机大战”过的数字运算、国际象棋、综艺节目抢答、围棋等等。

题目给出的数据是某些道听途说、缺乏准备知识的媒体添油加醋的产物,并不现实。

根据现实研究,一个突触约可存储4.7比特的信息。整个人脑的硬盘容量约910TB,而且你从来都不会用到多少

神经细胞通过轴突和树突相互发生联系,传递信息,形成神经网络,构成大脑记忆和思维的物质基础。突触是记忆的物质储存结构基础,每个突触可存储约4.7比特信息[2],整个人脑约可储存910TB信息(作为对比,2017年整个互联网约有500万TB信息)。
神经细胞不断有新的突触形成,也不断有旧的突触消失。动物受到外界刺激时,突触形成和消失的数量骤然增加。据观察,有些突触只存在几个小时,而另外一些则长时间存在并可能固定下来形成新的神经线路。

研究表明一个人在每个特定领域可以掌握约10万个概念:

  • 世界级国际象棋大师约能掌握10万局棋谱;
  • 莎士比亚的词汇量约为2.9万,这些单词能表达的含义接近10万个;
  • 医疗机器的开发也支持掌握10万个医学概念的机器可以达到同一个领域的人类医生九成的效果。

设每个专业方面的知识占一个普通人知识总量的1%、每个概念需要0.1MB~1MB来储存,按照库兹韦尔在《奇点临近》里给出的估算[3]一个普通人的知识总量约为1.13TB,距离910TB的硬盘容量限制还很遥远——按题目给出的50元1TB来算,二百五十块的硬盘都有点多余。因此,剪枝机制的存在不是因为硬盘容量限制[4]

在硬盘容量之外,人脑的记忆能力就不那么好看了:

人脑的工作记忆(约等于内存)是4,同时能跟踪最多四个事物[5]。事物可以是人、物件、单词、数字等等。这比计算机要弱得多。不过,四个事物的视觉与听觉信息等附属物可以有超过30G的缓存。

人脑的短时记忆的半衰期只有7秒,容量只有7±2个信息块。大部分暂存信息在11秒内丢失。

对人脑计算力的估算:

卡内基·梅隆大学的机器人专家汉斯·莫拉维茨分析了视网膜内的神经图像处理电路。他认为视网膜每秒执行一千万次图像边缘检测和移动检测。基于几十年建造机器人视觉系统的经验,他估计每次重现人类的视觉检测需要机器执行约一百条指令,这意味着复制视网膜这一部分的图像处理功能需要十亿次计算每秒。视网膜上的神经元总重0.02克,是人类大脑重量的七万五千~十万分之一。因此,复制整个人脑的计算能力需要每秒执行七十五万亿~一百万亿条指令。

劳埃德·瓦特和他的同事们在用计算机模拟人类听觉系统时发现,机器至少需要每秒计算一千亿次来在接近人类的架构下和人一样好地确定声源的位置。听觉皮层约占人脑皮层的千分之一,因此人脑的总计算力在一百万亿次每秒以上。

得克萨斯大学的模拟小脑区域实验估计,模拟每个神经元需要一万次计算每秒。这样整个大脑需要约一千万亿次计算每秒。

据此,有一定冗余度的估计是人脑的总计算力在一亿亿次每秒的程度

这个计算力在2020年的标准下仍然相当大。中国的天河二号已经超越了这个计算力,不过目前人脑还是远比它小而节能。意识清醒的成人大脑的功率约为20瓦,而天河二号光是电费就突破天际。


人脑“软件”神话的实态:

人脑倚仗的“软件”,自然选择塑造出的一部分脑功能,也远不像某些文章吹嘘的那么神奇。面部识别就是其中之一。

  • 猕猴实验表明,灵长类对同类脸部的识别是由大脑中200多个不同神经元共同编码完成的,每个神经元会对一张脸不同特征的参数组合进行相应比对。研究人员记录了视觉系统最高级的神经元信号,可以看到那里没有神秘莫测的黑箱,使用的比对方式是地球生物典型的简单粗暴。
  • 2019年发表的一项研究[6]显示,对于14年间的视频记录中的一千万张野生黑猩猩面部数据,人工智能面部识别达到了92.5%的个体识别率、96.2%的性别识别成功率。2020年发表的一项研究[7]显示,基于65000张大熊猫面部图像的人工智能面部识别达到了95%的个体识别率。这表明面部图像可能是识别哺乳动物个体的通用特征。

以下引用自《中国科学报》张行勇:

西安电子科技大学教授苗启广团队与西北大学研究人员展开合作,通过设计具有多路关注机制的深度神经网络模型,研发出一套较为完整的动物面部特征检测、追踪和识别系统“Tri-AI”,实现了适用于多物种个体识别的研究目标。近日,相关成果发表于《交叉科学》。

研究团队在野外和动物园进行了动物面部数据采集,并建立了动物面部识别数据库。据论文作者之一的郭松涛介绍,Tri-AI系统对41个灵长类物种共计1040只个体的102399幅面部图像,以及4个非灵长类物种共计91只个体的6562幅面部图像进行了实验验证。结果显示,Tri-AI系统对个体数量多于18的21个物种的个体识别准确率为93.8%,远超过人工识别的准确率。此外,该系统可兼容夜视影像的分析,可实现基于夜视图像的个体身份识别,进而可实现全天候的动物研究。

该系统验证了基于多物种的自动个体识别的理论假设的科学性,满足了“无观察者干扰”的行为学研究的理想条件要求,将研究者从对动物个体识别与追踪记录的任务中解放出来,推动了动物行为学研究进展。

相关论文信息:https://doi.org/10.1016/j.isci.

人类现在确实还不擅长写出高效率的软件给人工智能使用,也不知道如何教人工智能自己写出我们想要的高效率软件,更难以看懂人工智能写的大段代码。这不恰恰是我们的智能的问题么。

参考

  1. ^ 针对人的智商测试也经常被人质疑乃至怒斥
  2. ^ https://elifesciences.org/articles/10778
  3. ^ 库兹韦尔并不认为一个人可以成为100个领域的专家,其实他认为一个人有7个完整知识块就了不起了,其余部分是并不完整甚至碎片化的
  4. ^ 而是可能涉及脑区可塑性,可以参照:你就是你的大脑 - 赵泠的文章 - 知乎 https://zhuanlan.zhihu.com/p/290760759
  5. ^ https://doi.org/10.1016/j.neuron.2015.07.028
  6. ^ DOI: 10.1126/sciadv.aaw0736
  7. ^ https://doi.org/10.1016/j.biocon.2020.108414



  

相关话题

  如何看待全球第一位「数字航天员小诤」?数字技术跨界应用是否正在加快? 
  如何看待在某度搜不到megengine官网? 
  如何学习 SQL 语言? 
  如何评价第三局比赛AlphaGo再次战胜李世石? 
  人工智能可以解决人类难题吗? 
  我们的工作会被人工智能取代吗? 
  国内的自动驾驶技术目前发展到什么阶段了? 
  如何看待 Uber 发生全球首例自动驾驶致死事件? 
  如何评价浙江大学发布的“绝影”四足机器人? 
  从今年校招来看,机器学习等算法岗位应届生超多,竞争激烈,未来 3-5 年机器学习相关就业会达到饱和吗? 

前一个讨论
为什么强大的妖怪总是被封印却无法被杀死?
下一个讨论
我开始讨厌女人了怎么办?





© 2024-12-22 - tinynew.org. All Rights Reserved.
© 2024-12-22 - tinynew.org. 保留所有权利