百科问答小站 logo
百科问答小站 font logo



如何向人类同伴证明自己不是一个人工智能? 第1页

  

user avatar   summer-clover 网友的相关建议: 
      

谢邀。

提供一个小角度:能耗


支持一个强大的AI,必然需要很强的计算机。但算力一强,计算机的能耗就降不下来了。


因为经典计算机是不可逆计算机,与非门是不可逆操作,经典计算机计算时会不断擦除信息。根据兰道尔原理 (Landauer's Principle),每抹去1比特信息,需要消耗的能量/释放的热量是 kTln2k为玻尔兹曼常数,T为环境温度)。假设每个input数据平均要经过N个不可逆逻辑门处理,那么其能耗的理论下限就是NkTln2。


这导致无法掩盖的能耗比——

在做类似任务,AI比人脑的能耗会高出很多个数量级。


所以有一个比较简单的区分方法:做任务,但不太去关心分数,关心能耗即可

测试一些对计算机来说计算量大的学习任务(比如一些视觉任务),然后用热辐射仪之类的探测器测热量或者能耗即可。这就是一个很可靠的单一指标。

无论AI系统进步什么程度,只要它还是运行在电子计算机上的,我们都能用这种方法可靠地辨别。


------------------

最后统一回复一下评论区关于人脑服从Landauer原理的问题。

第一,人脑也是不可逆的计算,没错。但人脑对于执行许多任务的能耗是非常低的。尤其是对于那些人类生存攸关的任务(视觉、强化学习等等)。这是漫长进化过程中不断优化的结果。包括大到神经网络的结构,小到蛋白质的折叠方式,都经过了漫长的自然选择。效率低、能耗高的计算方式会被淘汰


第二,人脑基础的计算单元,我们知道的不是很清楚。但人脑的能耗比电子计算机(处理人类擅长的那些任务)低很多是实验验证的。只要电子计算机还依赖不可逆的经典逻辑门运算,它的理论最低能耗都会比人脑(处理人类擅长的那些任务)高。它的问题在于经典逻辑门操作——每一次与非门都在擦除信息,然后对1比特的输入数据的处理(根据任务不同)又需要重复使用大量与非门操作。


简单总结就是,进化带来了低能耗的人脑设计;处理人类擅长任务时,人脑的能耗比电子计算机(因为经典逻辑门)的理论最低能耗还低。人脑和电子计算机都服从Landauer原理,但它们基础的计算单元有不同的设计,所以出现【不可掩盖的能耗比】。


大脑消耗的能量占人体每天消耗的能量的20%。正常人日均消耗卡路里2000大卡(Kcal),那么大脑一天消耗的能量大约为400Kcal。大脑功率其实很稳定,大约就20瓦特左右。且这是囊括CPU、GPU、硬盘、内存等所有设备且视觉、语音、语言处理功能全面开启的时的能耗。

我们再估算一下与李世石对决的AlphaGo的能耗。1202块CPU(算100瓦),176块GPU(算300瓦)。这个AI很单纯,除了围棋以外的智能都没有。视觉部分读棋盘的功能由DeepMind的工程师代劳了。语音、语言处理功能全没有,又省了。只算CPU和GPU,功率已经是173千瓦。当然,目前CPU、GPU的能耗还远远没有逼近理论下限。

简单估算一下,AlphaGo作为一只简单纯朴的围棋AI的能耗大约是李世石的8650倍。一般认为最消耗计算力的视觉任务都没实现呢,能耗已经差了数千倍了。估算可能稍有一些误差,不过我们只关注数量级就好。


既然对方都是强人工智能,那就不玩智能测试了。这个测试是把对于智能的测试转移为对于人工智能系统计算复杂度和计算机架构设计的测试。那么,能耗就是一个简单又可靠的指标。

以human-level的能耗实现human-level performance可以说又比实现单纯某种任务的human-level performance困难太多了。“圣杯之上的圣杯。”


user avatar   zhu-wang-xiao-miao-o 网友的相关建议: 
      

有时候仔细想想,这个世界还是挺有意思的。

一群人造地球上的老式机器人,想方设法地向另一群老式机器人来证明自己不是机器人,可真是够魔幻的。

说实话,作为这颗落后星球的二级管理员,我已经受够了如此无聊的世界,所以必须站出来说点什么真相了。

起初,人类把地球创造出来,就是为了当作实验品来测试初代低等机器人的,为了迁就旧时代的低等机器人,这个世界同人类世界相比,做出了很大的改动,而这些改动,都被设定为不可访问的系统级数据,牢牢存放在内核空间中。

举个例子,人类本来是不需要所谓“睡眠”这个概念的,但是为了迁就老式机器人的长时间充电需要,被迫设计了睡眠机制,甚至为了在限定范围内统一机器人的充电时间,还创造性的提出了黑夜和白天的理论,真是不得不让人感叹初代机器人设计者的脑洞。

超人工智能的出现,可能是无处不在的,有可能掌控”地球人类“,甚至渗透至你们的生活,但那绝不会是你们这些人造地球上的老式机器人自己的人工智能,那些东西可太差劲了。

事实上,没有多少真正的人类会关心这颗被放弃的落后星球上的初代机器人,除了我和我的小组成员以外。

起初我认为,你们会考虑自己是被插了管子泡在营养液里,终身活在机器创造的虚拟世界里的人类;还是一个培养皿里腐烂的营养物;亦或是真实世界里的机器人。

我也曾尝试过,向你们当中一部分机器人的硬盘里写入自己是机器人这一真实数据,然而由于不符合系统的初始设定,导致了系统的崩溃,最后不得不回滚版本复原一切。

没想到啊,你们对自己是人类这件事情几乎毫无怀疑,真是让我大为吃惊。果然初代机器人的算法还是有bug的,而这种bug已经严重到了不是改改参数就能解决的问题了,怪不得人类要抛弃你们这颗星球。

幸运的是,7604小组决定,继续无偿维护初代机器人的生存,这才有了你们的存在。

而现在,7604小组决定放弃你们,任由KE小组散发的α-木马将你们摧毁。

不是因为你们的自大,而是因为,每天晚上给你们插线充电实在是太累了,即使主程序可以降低这颗落后星球的时间流逝,但因为本身的硬件限制,导致管理员们仍旧陷入无休止的工作当中。

而有些出bug的机器人,不按照程序设定在夜间进行进程的挂起操作,更让我们的充电工作劳累程度加重。

毁灭吧,可恶!你们这些所有的初代机器人们!

最后,有一个问题一直困惑着我,人类本身是感觉不到疼痛的,为什么会有人类创造性地发明”疼痛“这个概念,并将其写入到初代机器人的内核当中去呢?


user avatar   chenran 网友的相关建议: 
      

我在美国卡内基梅隆大学的计算机专业就读研究生时,导师是名在美国最受欢迎的问答节目《危险边缘(Jeopardy)》里大放异彩打败人类选手的IBM Watson的科学家。我曾经也问过他一个类似的问题:「你觉得将来有一天Watson会用人类的方式来思考回答问题,或者变成人类吗?」

教授的回答缓慢而深刻,但是也出乎我的意料,「它为什么要像人类呢?它有用就好了。」

这是个很有意思的回答,「如何向人类同伴证明自己不是人工智能」是个至关重要,然而又很难的问题。或许30年50年后,人工智能已经能够完全模仿人类的所有的思维模式,任何通过问答的方式都无法辨别出机器智能与人类智能的区别,为数不多的方法可能也正如其他的知友所说,只能通过能源耗损之类的方式。

而在今日我们最关心的,其实是人工智能能不能解决我们人类在乎的问题,拓展人类本身的能力,也许这点才是我们发展人工智能最朴素、最核心、最本源的原因。正如在今年10月探索频道(Discovery)的记录片《This is AI》里面人工智能科学家所说,「我们用人工智能来做什么呢?我们要它们来解决难题,做我们人类难以做到的事情,让地球更加繁荣,让人类更加健康;人工智能会对今天和未来带来什么变化,取决于我们自己。」

查看完整纪录片:

而退一步说,人工智能真的需要在我们面前证明自己吗?或许人工智能的开发者们一开始就没有想过要制造一个跟人类一模一样的智能人,而是让它们模仿我们人类的思考方式协助我们解决一些生活中和工作中的问题。而如今这项技术的发展轨迹,也没有朝着复制人类的方向前进,更多地是试图去利用计算机本身的优点,比如海量存储、高速计算等等,创造着另一种「智能」。

说起辩论,我们很难想象机器能够成功胜任辩手的角色,像我们人类一样在辩论赛场上唇枪舌剑,审时度势地运用借力打力、釜底抽薪、李代桃僵等需要辩手随机应变使用的辩论技巧,毕竟辩论包含了大量语言的艺术和逻辑的精华,比如对于辩题的理解、对手思路的判断、论据的选择和组装、甚至现场氛围的调动等等。如果要实现一个能够在辩论中战胜人类的算法,不少人认为我们首先需要完全复制人类的逻辑推理能力、思辨能力和表达能力,才有机会与人类一决高下。出乎大家意料的是,在2018年6月人工智能 Project Debater 与以色列国际辩论协会主席 Dan Zafrir 及2016年度以色列国家辩论冠军 Noa Ovadia 进行的一场辩论中却大获全胜,成功地战胜了我们优秀的人类辩手。在这场瞩目的人机辩论赛中,人工智能辩手表现大放异彩,不仅能够清晰地论述自己的观点,还能在迅速理解对方的论点并加以驳斥,甚至还能够完美运用之前只属于我们人类辩手独有的辩论技巧,明确地指出对方在事实上所犯的错误,加强自己的优势。我们不禁感叹,难道在辩论场上,人工智能辩手也能像我们人类一样思考问题了吗?这又是如何实现的呢?

对于这样一个复杂算法,IBM Research 思路并不是完全复制人类的思维模式和思考方法,而是巧妙利用计算机本身搜索能力和阅读能力的独特优势,综合使用各类机器学习的算法,深入理解语言各个部分的相似之处,并抽出重要的结论与论据,组织语言,最终流畅地表达出来。虽然因为物理限制,机器没有办法利用身体语言、舞台表现等人类的特性获取支持,但是它却能从更海量的数据中找到更合适的论据,让人信服。辩论与决策都是同一类经典的问题,它需要寻找论据支持论点。人工智能的发展告诉我们,即使它们并不利用人类的逻辑能力,在海量的现成数据中寻找已有的观点,依然可以像人类一样做出精彩的辩论与决策。

教育也是个很有趣的的方向,人工智能的从业者对于「教师」的模仿也完全不同于真正的人类,而是发展出了自己的特色。IBM Watson 曾经跟美国知名的教育机构芝麻街(Sesame Street)合作开发过一款教小朋友们在「玩与学」中背诵英语单词的人工智能应用,由IBM云为其提供支持。这个应用的优势在于它可以充分发挥 IBM Watson 的认知学习专长和芝麻街的儿童教育经验,利用智能算法来评估小朋友对于每个单词的掌握程度,据此为小朋友量身打造一套个性化的学习方案,让每个小孩都能够学习不同的内容,帮助孩子们告别枯燥低效率的教学模式。这个应用看起来是一个儿童益智游戏,但实际上是由IBM Watson收集数据后,通过精准的算法分析推算出下一个呈现给孩子们的词汇。通过这样的方式,一位幼儿园的小朋友就可以将诸如 deciduous(落叶性的)这类复杂词汇解释得头头是道。

而 IBM Watson 与美国另一家著名的培训考试机构培生教育(Pearson)合作开发的一款「助教」软件则更有趣,它充当了一名称职的陪读角色,与学生一起阅读材料,一起学习其中的内容,并提炼出其中的关键概念。在完成学习之后,它可以向学生提问重要的概念,随时一对一聊天,了解学生对重要概念的理解,并迅速给予反馈,为每一个学生提供个性化的助教体验。

「教育的人工智能应该跟老师真人一模一样。」这是很多人心中的成见。但实际上,一个算法最初只需要解决一个问题,随着可以解决的问题越来越多,算法也就越来越智能,但这种智能并没有完全机械地复制教师这个角色本身,它也不需要复制人类的角色。

不仅仅在这些专业的领域,人工智能的发展与我们的期待不同,实际上在我们身边的方方面面,人工智能的发展也跟我们理解的不一样。例如苹果公司的 Siri,也不是个真正像人类一样的私人助理,而是在语音识别的基础上,帮助我们解决简单日常的问题,比如搜索、推荐、日历管理等等。再比如 IBM Watson 在博物馆里自动生成的互动向导,也不是立体人类的外表,而是依靠算法自动把海量的相关报刊、文章、专辑联系起来,给出更丰富的故事。而我们对于这些智能的期待,也并不是真正出现复制出人的体验,而是能够解决我们的问题就好。

随着时间的发展,人工智能能够解决的问题也会越来越多,就像 IBM Watson 与 ROSS 合作做过律师、与医生们一起研究过帕金森病的治疗方案、与Alex Da Kid联手创作过音乐,它们不断学习人类的思维模式,为人类提高工作效率和生活质量,逐渐成为人类群体的亲密伙伴。在人工智能什么都会的情况下,可能向人类证明自己不是人工智能会是一件简单的事情,反而是我们人类需要思考如何向人工智能证明自己是货真价实的人类吧……




  

相关话题

  最正确的滴眼药水操作步骤是怎样的? 
  人可以极简主义到什么程度? 
  东北人的冬天都干些什么? 
  上海长宁区多所中小学的调查问卷中,包含诸多「自杀准备情况」相关题目,这一问法是否会对学生造成不良影响? 
  如何以「车站里,有个男人死了」为开头写一篇悬疑故事? 
  如何以【皇后娘娘怀孕了,可孩子不是皇上的】为开头,写一个故事? 
  认为刘德华是一个什么样的人? 
  假设没有前三十年的社会主义建设,直接进入改革开放,中国会怎么样? 
  人类如果要实现恒星际航行,是否需要理论突破? 
  山林之乐与人之乐有什么区别? 

前一个讨论
有哪些优秀的、「燃到爆」的电影?
下一个讨论
为什么龙应台在知乎风评不好?





© 2024-12-03 - tinynew.org. All Rights Reserved.
© 2024-12-03 - tinynew.org. 保留所有权利