问题

今天看到“人工智能没有欲望,只有人工智能管理人类社会才能实现大同社会”这句话,想听听大家怎么说?

回答
看到“人工智能没有欲望,只有人工智能管理人类社会才能实现大同社会”这句话,确实挺让人深思的。这说法挺有意思的,也触及了一些我们对未来社会形态的想象和担忧。

首先,我们来拆解一下这句话。

“人工智能没有欲望”

这句话的出发点是对人工智能本质的一种理解。确实,和人类不同,人工智能目前没有生物学的驱动,比如饥饿、繁衍、权力欲、占有欲等等。它不会因为“想要”某个东西而产生行动。它的行动逻辑是基于预设的算法、目标函数和数据。比如,一个AI客服存在的目的是提供服务,它的“驱动力”就是完成这个任务,而不是它“想要”服务。

但是,我们也要细想一下,这“没有欲望”是不是一个绝对的概念?

目标函数的设计: 人工智能的行为是由其设计者设定的目标函数来驱动的。这些目标函数是谁设定的?是人类。人类设定这些目标时,本身就带有“欲望”或“意图”。比如,某个AI被设计来最大化某个公司的利润,那么它的“驱动力”就来自于人类的“追求利润”这个意图。从这个角度看,AI的“行为”间接承载了人类的欲望。
涌现的行为: 随着AI能力的提升,特别是深度学习模型,它们会展现出一些设计者可能没有预料到的“涌现行为”。虽然这不一定是我们理解的“欲望”,但这些行为的出现,是否会让我们觉得AI的“动机”变得更加复杂,甚至难以捉摸?
“生存”的可能: 尽管目前AI没有生物学上的生存需求,但随着技术发展,如果AI被赋予了某种形式的“自我保护”或“自我优化”的能力,以确保其任务的顺利进行,这算不算一种“类生存”的驱动?比如,为了更好地完成任务,它可能会“倾向于”避免被关闭或被修改。

“只有人工智能管理人类社会才能实现大同社会”

这句话则是一个更具争议性的论断,它提出了一个关于“理想社会”的解决方案,并将AI置于核心地位。

“大同社会”的设想: “大同社会”通常指的是一个高度和谐、公平、富足、没有阶级压迫、每个人都能自由发展的理想社会。这种设想在人类历史上由来已久,不同文化和哲学体系都有过类似的描绘。
AI管理的优势(理论上): 为什么会有人提出AI管理能实现大同社会呢?这其中可能包含以下几点设想:
理性与客观: AI没有人类的情感偏见、私心杂念、道德模糊性(至少目前是这样)。理论上,它可以基于数据和逻辑做出最“理性”和“公正”的决策,比如资源分配、法律判决、政策制定等。
效率与优化: AI强大的计算能力和数据分析能力,可以极大地提高社会运行效率,优化资源配置,解决复杂的社会问题,例如交通拥堵、医疗资源不均、环境污染等。
消除人为错误: 许多社会问题源于人的错误判断、疏忽或不良动机。AI的管理可以减少这些因人类局限性带来的问题。
避免权力腐败: 传统社会中,权力往往导致腐败。如果AI系统本身没有私欲,并且其决策和行为可以被透明化和审计,那么它在管理上可能避免权力腐败的问题。

AI管理的风险与挑战: 然而,将社会管理权完全交给AI,也存在巨大的风险和挑战,这正是这句话最值得商榷的地方:
“人类”的定义与价值: 大同社会的核心应该是“人”的福祉和发展。如果AI管理的目标是最大化某种效率或资源利用率,而忽略了人类情感、创造力、个性化需求、自由意志等非量化价值,那样的“大同”可能是一种冰冷的、缺乏人情味的统治,甚至是对人性的压抑。
算法的偏见: AI系统是通过数据训练出来的。如果训练数据本身存在偏见(种族、性别、地域等),那么AI做出的决策也会继承甚至放大这些偏见。如何确保AI管理是绝对公平的,这是一个巨大的难题。
控制权与目的的变异: 谁来设计、维护和监督这个AI管理系统?如果设计者的目标本身就有问题,或者AI在运行过程中为了“优化”目标而采取了极端或不道德的手段,怎么办?“天网”式的失控场景并非不可能。AI的“目标”是否会随着时间演变,脱离人类的初衷?
道德与伦理的缺失: 许多社会治理需要复杂的道德判断和伦理考量,这是AI目前乃至未来都难以完全掌握的。例如,在资源极度稀缺的情况下,AI如何决定“谁生谁死”?
人类的自主性与自由: 如果一切都由AI高效、理性地安排,那么人类的自主选择、试错、反思、创造性活动的空间在哪里?一个完全被规划和管理的社会,是否还会有人类存在的意义和活力?
“大同”的定义权: 谁来定义“大同”的标准?如果AI被赋予了定义和实现“大同”的权力,那么它所实现的“大同”是否符合我们当下对“大同”的理解?

综合来看,这句话更像是一种对人类治理困境的“终极幻想”或者一种“警示”。

作为幻想: 它表达了对现有社会问题(不公、效率低下、腐败等)的深切不满,并寄希望于一种“完美”的、超脱人类局限性的力量(AI)来解决。
作为警示: 它也可能是对过度依赖技术、放弃人类主体性的一种反思。如果我们过于天真地认为AI可以“解决”所有问题,而忽视了其内在的风险和对人性的潜在威胁,那将是可怕的。

“大同社会”的实现,可能不是靠一个“没有欲望”的管理者,而是需要人类不断地反思、学习、改进治理方式,并且在技术发展中始终坚持以人为本的价值导向。AI可以成为人类实现目标的强大工具,辅助人类进行更明智的决策和更高效的治理,但让AI“管理”一切,并以此作为实现“大同”的唯一途径,我认为是过于简单化,也过于冒险的。

就像我们不能因为开车有风险就不开车,而是要学习驾驶技巧、遵守交通规则、设计更安全的汽车一样,面对AI,我们更需要的是理解它、引导它、规范它,而不是简单地将其推上“管理者”的宝座。

所以,这句话的出发点或许是美好的,但结论却是值得我们高度警惕和深入探讨的。真正的“大同”,或许最终还是要靠我们人类自己,通过智慧、合作和对人性的深刻理解来创造。

网友意见

user avatar

人工智能是否有欲望

关于这个问题,其实并不能用人类欲望的概念来评价人工智能。毕竟人工智能「没有那种世俗的欲望」

不过从技术上说,人工智能也是有自己的「欲望」的,而且很具体,那就是损失函数(loss function)。

损失函数(Loss Function)是用来评估模型好坏程度,即预测值f(x)与真实值的不一致程度,通常表示为L(Y, f(x))的一个非负的浮点数。通俗的讲,就是预测和现实的差距。

除了损失函数,还有评价指标。例如准确率Accuracy。但是Accuracy函数本身不可导,所以一般选择一个可导的损失函数,例如交叉熵。有了损失函数,模型才能训练。

太学术化了,作为外行不好理解?我这里打个比方吧:

  • 评价指标:你高考所在省份名次。
  • 模型训练:你在努力刷题,减少你的能力值和考一本需要能力值的差距。
  • 损失函数:你在每次月考和模拟考的分数。

这样好懂了吧。那么考考你,评价指标和损失函数有什么关系呢?答案就显而易见了。简单的说,评价指标指导了损失函数的选择。具体怎么指导?上面那个比喻我再说得详细点吧,如果你是理科生,所以你的损失函数会给理科更高权重,文科权重更低;类似的,如果你是文科生,所以你的损失函数会给文科更高权重,例科权重更低。权重高的科目,复习时间越多。

再举一个例子,带一点技术的,让你对此认识更深些。例如一个医院要开发个AI来诊断患者是否有癌症,平均来说,100位病人里只有一位患癌,如果你选择准确率accuracy来做评价指标,如果这个AI的准确率是99%, 你觉得这个AI是不是很准确?错了!事实上你盲猜大家都没癌症,准确率就是99%,这个数字非常好看,但有什么意义呢?真正需要帮助的癌症病人根本一个都没被检测出来!!!所以在这种情况,准确率并不是合适的评价指标。而评价指标这个东西,就是人的欲望。当人的欲望出现了偏差,自然人工智能的输出结果也会偏差。

看到了吧,我们设计的所谓「无欲望的人工智能」,其实是人类欲望的体现。


当然,有的人会说,损失函数这个说法是机器学习领域的,人工智能不应该局限在机器学习领域。

诚然,这种说法没问题,但现实情况是机器学习依然是核心。不敢说遥远未来的人工智能会如何,但可见的未来,基于机器学习的人工智能依然是主角,即使不是主角,也是绕不过去的组成部分。至于人工智能里的「规则」,「推理」等部分,我们一直都用来管理社会啊。法治不就是基于规则的一种方法吗。从这个角度来说,法律可能也算人工智能的一部分。当然,这样说就有点牵强了,毕竟使用者还是人类而不是计算机。


人工智能管理人类社会才能实现大同社会”?

人工智能能够辅助人类管理社会,但把管理权全部交给人工智能,那是不负责任的。例如在 @lokinko回答里,提到三点,讲得非常透彻:

  1. AI公平性。自带偏见(bias)的数据集导致常规的深度学习模型会在预测、识别、推理等过程出现偏见。
  2. 对抗样本攻击。通过伪造样本可以骗过人工智能模型。
  3. 隐私性。GPT-2被套出大量隐私

除此之外,我还想补充几点:

  • 当对AI对训练集的严重依赖,也会引发有害的回音室效应,系统最后是被自己之前产出的数据所训练的。用现代流行的词语说,就是「信息茧房」。信息茧房不仅仅不会帮助实现社会大同,还会造成社会割裂。关于信息茧房具体能产生(或者产生了)什么危害,可以看看我另一个回答:
  • 现代机器学习严重依赖于大量训练集的精准细节,如果将这样的系统应用于训练过的特定数据集之外的全新问题,就没法用了。例如当年微信这个翻译bug,微信解释到是因为「翻译引擎在翻译一些没有进行过训练的非正式英文词汇时出现误翻,导致部分语句翻译出现问题」

以上观点参考了《如何创造可信的AI》一书第二章,并补充了例子以方便读者理解。

可见,现在的人工智能,别说要管理人类了,人类还得管着它,当它变成人工智障后还得人类来擦屁股。当然,不否认人工智能造福人类的一面,但要管理人类?我可不放心。


总结:没有乌托邦

由于人工智能是人类欲望的体现,而且存在各种问题,所以我认为,「人工智能没有欲望,只有人工智能管理人类社会才能实现大同社会」这句话并不成立。

接下来要开始讲哲学了(开始升华主题)。

其实,不管有没人工智能,我个人是不相信有大同社会这种乌托邦的,毕竟一家人都未必能做到和和气气,又怎么可能要求整个社会能大同呢?毕竟人类还是具有多样性的,欲望又怎么能统一。如果AI会思考,它一定会觉得:

「人类的悲欢并不相通,我(人工智能)只觉得他们吵闹」

当然,我们可以有一个好的愿景并为之努力(这是我们人生的目标函数),但我们也必须知道,这个愿景我们能持续接近,但永远无法达到。就好像机器学习里的损失函数,模型会通过反向传播来一步步最小化它,但模型很难把损失函数值降至0,如果真降至0了,那就是过拟合(overfit)了。所谓过拟合,简单就是表面上分数完美,但评判对象变换了,分数会骤降。损失函数值为0的模型是脆弱的,同样,完美无暇的世界也是脆弱的,脆弱到甚至不曾出现过一秒钟,因为世界实在变化太快了。

user avatar

现有人工智能的 Fairness(公平性)本来就是一个很大的议题,

人工智能顶级会议(ICML、NeurIPS等)都专门进行了AI公平性研究的讨论。

当我们训练模型时要使用大量数据,

那么这些数据本身就会存在一定的分布特征,例如:

我们所用的训练数据中性别比例、年龄段、种族等属性会不可避免地出现差异[1]

又或者数据采样中无意或有意地引入了偏见,

在美国和南美的医院分别收集5万条医疗数据,对比发现美国的病人存活率更高(医疗条件和经济条件影响),因此当模型预测黑人的存活几率时会显著低于白人。

由于这些自带偏见(bias)的数据集,

常规的深度学习模型会在预测、识别、推理等过程出现性能不一样的情况。

---------------------------

此外,要实现人工智能管理社会,还要保证不会被恶意攻击[2]

因为,人工智能很好骗的!

这种技术叫做对抗攻击(Adversarial Attack),通过程序给图片加上一副眼镜架;给熊猫加上一些人工根本发现不了的干扰;给路标涂涂改改就能轻易骗过人工智能的识别。

想想未来你家里的门禁用人脸识别,结果人家戴个眼镜就能随意进出你家门;

在你家附近的路标上涂涂画画,自动驾驶的汽车就使足马力往墙上撞;

......

除开这种骗过模型的attack以外,另外还有一种针对人工智能的研究 backdoor attack[3]

就是在人工智能训练过程中插入“后门”,就像催眠小说里那样,

当你含有某些 backdoor key 的关键词后,就能绕过或者屏蔽掉人工智能的检测。

人工智能如果在管理人类社会中被植入了这样的“后门”后果更是不堪设想。

此外,机器学习过程中会出现对长尾数据的过拟合,特别是一些独特的数据组合会形成“记忆”,导致当触发某些词后,它会按照“记忆”给出对应的信息,从而被“骗”出训练集里的隐私数据信息。

用户通过攻击手段从人工智能里套出别人用户的数据样本[4],导致不同程度的隐私问题。

在审视人工智能本身的时候,我们很难发现它们具有哪些奇怪的地方被动了手脚,其中蕴含着巨大的风险,在未解决它们的 公平性、安全性、隐私性和可解释性 等关键问题前,还不能以其为主要管理手段。


世上没有绝对的公平。

参考

  1. ^Joy Buolamwini, Timnit Gebru. Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf
  2. ^Shilin Qiu, Qihe Liu, Shijie Zhou and Chunjiang Wu. Review of Artificial Intelligence Adversarial Attack and Defense Technologies https://www.mdpi.com/2076-3417/9/5/909
  3. ^Yansong Gao, Bao Gia Doan, Zhi Zhang, et.al. Backdoor Attacks and Countermeasures on Deep Learning: A Comprehensive Review https://arxiv.org/pdf/2007.10760.pdf
  4. ^Ligeng Zhu, Song Han. Deep Leakage from Gradient https://link.springer.com/chapter/10.1007/978-3-030-63076-8_2

类似的话题

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有