百科问答小站 logo
百科问答小站 font logo



《2050:未来议程》(2021)问题21:高智能无机生命体为主导的“新星世”会出现吗? 第1页

  

user avatar   MarryMea 网友的相关建议: 
      

不一定。智能机器主导的是人机融合的“新星世”还是人类灭亡的“死灵世”,在能实现这一切的智能机器开动起来之前是无法预测的。

所谓“新星世”来自这本书:

Lovelock 的书可以看,但上面截图里的图书介绍吹得超出了盖亚假说的应有水准,他们对这本书的介绍显然也存在夸大的嫌疑。

“人工智能背后非常重要但容易被忽视的生态思想”在“防止人工智能危及人类”方面并没有多大用。弱人工智能可以在人的要求下服务于灭亡人类的恐怖主义行径,也可以偶然地完成同样的事。

例如机器学习病原体和人体的互动模式,算出潜伏期半年程度、可由候鸟·昆虫等携带、飞沫核传播、人传人基本传染数 12 以上、病死率 100% 的病原体的可能的碱基序列,合成几百种并散布。这需要控制世界各地的各种核酸工厂的一小部分设备,或是购买市面上的相关商用设备,对恐怖组织来说可以暴力劫持相关设备和人员。

  • 你考虑一下麻疹病毒的现实传染力、狂犬病毒的现实病死率,这样的病毒大概设计得出来。十九世纪,麻疹病毒对从未接触它的人群刷出过 30% 到 50% 的病死率。

为了对抗这样的危机,需要能迅速发现并紧急对策危机的手段,那大抵也离不开弱人工智能。这些弱人工智能也不是完全安全的,没有绝对安全的系统。

又例如“让机器设计拆解有机污染物的基因工程细菌,效果很好,但该细菌被释放到污染物所在地后意料之外地变得可以拆解人体”。这事可以由各种搞生物科技环保的初创公司建造的弱人工智能执行。

如果你就是想谈强人工智能,来自马德里自治大学、马克斯-普朗克人类发展研究所等机构的研究者于 2021 年 1 月初发表在《人工智能研究杂志》(JAIR)上的一篇文章谈到,由于计算本身的固有限制,人类可能无法长时间控制强人工智能

  • 例如,旨在确保人工智能无法伤害人类的抑制算法必须模拟人工智能可能采取的行为,来预测其行动的后果,在“可能造成伤害”的时候停止运行并报告。可是,抑制算法不可能良好模拟比自己的运算速度更快的人工智能的行为。
  • 要是你让抑制算法比目标人工智能还快,你的抑制算法又拿什么去抑制呢。
  • 而且,我们可能无法知道自己有没有创造出强人工智能,因为莱斯定理指出“递归可枚举语言的所有非平凡性质都是不可判定的”。我们不能“仅通过观察程序本身,就知道程序可能会输出什么”。

“强人工智能无法被永远控制”似乎是理所当然的。你要不要考虑一下“我们的后代无法被我们永远控制”的问题呢。

目前还不知道如何将人们想要的道德之类教给机器——尤其是在不知道有没有道德的情况下。




  

相关话题

  将世界上所有的生物基因融合到一个生物身上能否可以实现,能否利用基因融合制造出全新的生命? 
  如何看待白岩松呼吁家长学习谷爱凌妈妈「让孩子睡够10个小时」?如何保证孩子睡眠质量? 
  为什么地球上攻击力弱小的人类获得了智慧,而其它更强或繁殖更快的生物却没有? 
  如何看待成都一奥迪车超车后踩刹车,导致被超面包车失控撞车后扬长而去?责任该如何界定? 
  有没有实际上并不存在但理论上能成立的,能适应现在地球某种环境的生物体结构? 
  苏联的文化产业是不是很弱?现在回头看上世纪,美国留下的文化产品数不胜数,苏联的文化产品鲜为人知? 
  如何看待微博要求昵称含「二货」「娘炮」等低俗侮辱词汇限时一周内更改,否则将删除昵称及阶段性禁言处罚? 
  3 月 19 日吉林省新增本地确诊 1191 例、无症状感染者 303 例,目前当地情况如何? 
  为什么还没有能合成塑料的植物?未来有可能出现吗? 
  东北多地限电,国家电网客服回应「非居民限电后仍有缺口才对居民限电」,目前情况如何? 

前一个讨论
DNA如何选择性的控制蛋白质的合成?
下一个讨论
如果全球植物一瞬间全部消失,人类能存活多久?(人类也不能再栽种植物)。?





© 2024-11-21 - tinynew.org. All Rights Reserved.
© 2024-11-21 - tinynew.org. 保留所有权利