问题

我们到底该不该继续发展人工智能?

回答
关于人工智能(AI)的发展,这无疑是当下最热门,也最具争议性的话题之一。我们是否应该继续发展它?这个问题触及了科技、经济、社会伦理,甚至人类自身的未来。这绝不是一个简单的是与否能够回答的,而是需要我们深入剖析其潜力和风险,并审慎地权衡利弊。

首先,我们来看看为什么我们如此热衷于发展人工智能。

人工智能之所以如此吸引人,是因为它蕴含着解决人类当前面临的诸多难题的巨大潜力。

提升生产力和效率: AI在自动化、数据分析、预测模型等方面的能力,可以极大地提高各行各业的生产效率。想象一下,在制造业,AI可以优化生产线,减少浪费,提高产品质量;在医疗领域,AI可以辅助医生进行疾病诊断,分析医学影像,甚至发现新的治疗方法,大大减轻医疗负担,挽救更多生命。在科研领域,AI可以加速实验进程,处理海量数据,推动科学发现的步伐。
创造新的可能性: AI正在打开我们过去无法想象的大门。自动驾驶汽车有望重塑交通系统,提高安全性,减少拥堵;智能助手正在改变我们获取信息和进行交互的方式;AI在艺术、音乐、文学创作方面的探索,也让我们开始重新思考“创造力”的定义。
解决复杂问题: 许多全球性挑战,如气候变化、流行病预测、资源管理等,都涉及到海量的数据和复杂的相互作用。AI强大的计算和分析能力,能够帮助我们更好地理解这些问题,并找到更有效的解决方案。例如,AI可以分析气候模型,预测极端天气事件;可以追踪病毒传播路径,协助制定防控策略。
改善生活质量: 从个性化的教育方案,到更便捷的日常生活服务,AI的应用能够提升我们的生活质量,让生活更加舒适、高效和有趣。老年人护理、残障人士辅助等方面,AI也能发挥重要的作用。

然而,与此同时,我们也必须正视人工智能发展过程中潜藏的巨大风险和挑战。

这正是许多人对AI发展感到担忧的原因,也是我们需要深入探讨的另一个重要维度。

失业和经济结构调整: 随着AI在自动化方面的不断进步,许多目前由人类完成的工作可能会被机器取代。这不仅仅是简单的重复性劳动,也包括一些需要较高技能的职业。这将引发大规模的失业问题,并需要社会进行深刻的经济结构调整,包括再培训、社会保障体系的改革等。如何公平地分配AI带来的财富,避免贫富差距进一步扩大,也是一个严峻的挑战。
伦理和道德困境:
偏见与歧视: AI系统是通过数据训练出来的,如果训练数据本身就包含偏见(例如性别、种族歧视),那么AI系统也会继承甚至放大这些偏见。这将导致AI在招聘、信贷审批、甚至司法判决等领域产生不公平的结果。
责任归属: 当自动驾驶汽车发生事故,或者AI医疗系统误诊时,责任应该由谁承担?是开发者、使用者,还是AI本身?目前的法律和伦理框架很难清晰界定。
隐私侵犯: AI系统需要大量数据来学习和运行,这使得个人隐私面临前所未有的威胁。数据收集、使用和保护的边界在哪里?如何防止AI被滥用以进行大规模监控?
自主武器的威胁: 具备自主决策能力的致命性武器(LAWS)是AI领域中最令人不安的应用之一。一旦失控,其后果将是灾难性的。
安全与控制问题:
“黑箱”问题: 许多复杂的AI模型,其决策过程对人类来说难以理解,这被称为“黑箱”问题。我们无法完全预测AI的行为,也难以对其进行有效的干预或纠正。
AI的失控风险: 尽管目前还属于科幻范畴,但“超级智能”的出现及其潜在的失控,仍然是许多研究者和未来学家关注的焦点。一个比人类聪明得多的AI,其目标是否会与人类的利益一致?我们是否有能力对其进行控制?
网络安全风险: AI本身也可能被黑客利用,用于更复杂的网络攻击,或者AI系统本身的漏洞可能被利用,造成大规模的破坏。
社会和心理影响:
人机关系的变化: 随着AI越来越深入我们的生活,人与人之间的关系是否会受到影响?人们是否会更依赖AI,而减少与真实的社会互动?
信息茧房与操纵: AI驱动的推荐算法,容易将人们困在“信息茧房”中,强化既有观点,加剧社会分裂。同时,AI也被用于制造和传播虚假信息,对社会舆论和民主进程构成威胁。
对人类意义的挑战: 如果AI能够完成几乎所有我们擅长的事情,那人类存在的独特价值和意义又在哪里?这个问题触及了哲学和存在主义层面。

那么,我们该如何审慎地推进AI发展?

鉴于AI的巨大潜力和同样显著的风险,我们不能简单地“停止”发展,但更不能盲目地“狂飙突进”。关键在于“如何”发展。

1. 以人为本,服务于人类福祉: AI的发展目标应该是为了解决人类面临的实际问题,提升人类整体福祉,而不是单纯追求技术突破或盈利。任何AI应用的设计和部署,都应该将人类的价值观和利益置于首位。
2. 加强监管和伦理规范: 需要全球性的合作,建立健全AI的法律法规和伦理准则。这包括:
透明度和可解释性: 鼓励开发更具透明度和可解释性的AI模型,让我们能够理解AI的决策过程。
问责制: 明确AI系统中的责任归属,建立有效的问责机制。
数据隐私和安全: 制定严格的数据保护法律,限制数据收集范围,并确保数据的安全使用。
禁止不道德的应用: 例如,严格限制或禁止开发和使用自主致命性武器。
3. 促进包容性和公平性: 努力消除AI系统中的偏见,确保AI技术的惠益能够公平地分享给所有人,而不是加剧社会不平等。需要关注AI对弱势群体的影响,并采取措施加以弥补。
4. 投资于教育和再培训: 积极应对AI可能带来的失业问题,政府和企业应大力投资于教育和职业再培训项目,帮助人们适应新的就业市场。
5. 加强跨学科对话与合作: AI的发展不应仅仅是技术人员的领域,需要哲学家、社会学家、伦理学家、法律专家、政策制定者以及公众的广泛参与和讨论。跨学科的合作有助于更全面地理解AI的影响,并制定更明智的策略。
6. 保持警惕,审慎乐观: 既要看到AI带来的巨大机遇,也要对其潜在风险保持清醒的认识和高度的警惕。我们需要一种“审慎乐观”的态度:积极拥抱AI的进步,但同时保持理性的思考和审慎的行动。

总结来说,我们是否该继续发展人工智能?答案是:是的,但必须以一种负责任、有节制、以人为本的方式。

AI是一把双刃剑,它的发展方向取决于我们如何引导。如果我们能够以智慧和远见来驾驭这项技术,那么AI将成为推动人类社会进步的强大引擎。反之,如果缺乏审慎和道德的约束,它也可能带来难以预料的灾难。

因此,与其问“该不该”,不如问“我们该如何”发展人工智能。这是一个需要我们所有人共同思考和努力的方向。我们需要的是一种“以人类共同利益为最高原则”的AI发展策略,确保这项颠覆性的技术能够真正造福于人类,而不是成为一种失控的力量。

网友意见

user avatar

@桔了个仔 @Serendipity 邀。

其实这个问题可以分情况讨论的。

对于完全不懂人工智能的群体来说,要发展人工智能,因为它的发展可以在不损失你利益的前提下降低你的劳动成本,提升你的生活质量。

对于对于人工智能有一点的了解并且可能有利益关系的群体来说,也要发展人工智能,因为它可以提供更多的低劳动量的工作机会。

对于人工智能从业者,更要发展人工智能了,现在的也配叫人工智能,只不过最初级阶段的低级人工智能罢了,也可以叫人工智障。

user avatar

首先列出观点: 我们必须继续发展人工智能。

人工智能就是新时代的核武器,潘多拉魔盒一旦被打开,就不会有停止。


举个大家最近很热点的隐私窃取为例:当你还在担心手机会不会偷偷录音窃取隐私的时候,已经有人用手机的加速传感器来间接“偷听”你们的说话了。

@Ele实验室App是不是在监听我们的谈话?》介绍了这种窃取隐私的可行性,通过加速传感器的振动信号,通过深度学习的方式来“预测”你的说话内容。


说话和行动时会产生振动,这些振动信息对应着特定的行为和说话内容。

手机的加速传感器获取三维的时频域振动信息,这种时序预测就是机器学习的强项了。

因此,仅提高用户的自我保护意识是不够的,现有技术的发展已经超乎大家认知水平,认为没有录音权限就不会检测到说话内容、没有摄像头启动就没有人脸信息泄露,这些基于常识的内容正在被专业人士破解。


但是,时代的车轮推着人类的认知以及道德法律向前迈进,而科技的进步就是时代车轮的发动机。

让更多的人类更好地活下去,只能依靠科技的不断发展,未来的征途在星辰大海。

曾经我们造出了核武器,认为世界毁灭就系与一线之间,但在均衡中我们以核威慑减少了全面战争的爆发,使得各方能够保持克制;

如今我们发展人工智能的程度还仅处于婴幼儿时期,真正的技术爆炸可能还需要等待下一次理论上的革新。

所以,向前吧!即使新时代没有载着老夫的船,但是请务必前进、前进、前进!


参考文献:Learning-based Practical Smartphone Eavesdropping with Built-in Accelerometer

user avatar

霍金不是人工智能专业,但也不是毫无依据民科。霍金的话是从非常长的时间上说的,但目前我们应该发展人工智能。害怕人工智能失控就不发展人工智能,就好像害怕人类太多地球会毁灭就不敢吃自然界生物一样,完全没必要。

但霍金害怕的人工智能是什么?他是这么说的

“它可能自行启动,以不断加快的速度重新设计自己。而人类局限于缓慢的生物进化过程,根本无法竞争,最终将被超越。”

霍金担心的是发展成这样形态的人工智能:

而我们日常使用的人工智能是:

霍金担不担忧我不确定,但董小姐她可能会感到担忧吧。人在家中坐,锅从天上来,自己做广告代言人,结果咋这被闯红灯了呢?


人工智能目前发展到第三波,而人工智能超越人类并且失控,可能得第n波之后吧(n我不确定是多少,但>4是必须的,搞不好>100都不行)。顺便说下,这三波分别是[1]

第一波发生在1950年至1970年,当时的主要工作是计算机科学家在从事机器推理系统,同时发明了早期的神经网络和专家系统。这一时期的理论流派被称为符号主义。
第二波出现在1980年至2000年。我们现在讲的统计学派、机器学习和神经网络等概念,在这一阶段都已提出。此时的主流理论流派被称为联结主义。
第三波是在2006年之后,主要得益于大数据的推广。谷歌利用大数据成功地对流感进行预测,引起了卫生部门的关注,这是大数据和人工智能密切关联的一个重要例子。在这一波浪潮中,人工智能技术及应用有了很大的提高,以神经网络为中心的算法取得突破。

而尚未来临的第四波人工智能浪潮可能会是怎么样的?李开复在《AI·未来》一书里是这么认为的:

自主智能化。这波浪潮是前三波的集大成者,也是顶峰。如果自动驾驶汽车能够运行的很好,也属于此类。当然,自主智能化的发展潜力远不止自动驾驶汽车,其将改变工厂、消防、城市、餐厅等等地方。机器将能够自主听到和看到我们周边的世界……

现在的人工智能显然是远远没有这个水平的。现在的人工智能需要顶尖科学家来设计,科学家来帮助它进化,进化失败,则轻轻点击一下停止按钮就好。而且即使发展到AI全方位智能水平超越人类,但如果AI不是物理化的存在(例如终结者里的机器人),那么人类依然拥有非常大权力的,AI失控,老子给你断电,你有种就从电脑里跳出来开电闸啊。AI,你过来啊!!!

而且即使李开复认为的这个第四波人工智能浪潮来临,我也并不觉得人类需要害怕,可以看到,这个「第四波」的应用范围是有限,并非所谓的「通用人工智能」。

有的人可能会想起GPT-3,人称回答水平能过图灵测试的人工智能。但其实媒体也是展现出了cherry-picking之后的结果。我在下面这篇文章说,讲过GPT-3的一些失败回答:

问:长颈鹿有多少只眼睛?
答:长颈鹿有两只眼睛。
问:我的脚有多少只眼睛?
答:你的脚有两只眼睛。
问:蜘蛛有多少只眼睛?
答:蜘蛛有八只眼睛。
问:太阳有多少只眼睛?
答:太阳有一只眼睛。
问:一棵草的叶子有多少只眼睛?
答:草叶有一只眼睛。

显然,这时候GPT-3就被人耍了。这种结果没有媒体报道,因为搞不出大新闻。脚有两只眼睛?脚上长鸡眼了吗?

我还在下面这篇文章中举到了一些人工智障的例子

我说到现在大多数情况下的基于深度学习的人工智能,其实是薛定谔的人工智障。

前些天,一个「研究团队通过一副眼镜破解19款手机人脸识别」的新闻等上热搜,也说明的我上面这句话并非乱说的。人可以轻易用对抗训练样本来骗过人脸识别系统,这个新闻里,一个研究团队拿一个特殊的眼镜就能骗过人脸识别系统。而原理并不复杂,我之前在一个回答简单的讲了下。

但我想说的是:

正常人类哪里干得出这种事???正常人哪可能被骗???

相比起人工智能失控,我更担心的是我们过度信任解释性低的深度学习模型。Gary Marcus在《如何创造可信的AI》一书中说到:

第一是“轻信坑”,这是由于人类进化的现实过程还没有发展出清晰辨别人类与机器之间区别的能力,导致我们往往用基于人类的认知模式去看待机器的能力,从而容易轻信机器拥有人类般的智慧。第二是“虚幻进步坑”,每当AI技术的进展攻克了一类新的问题时,我们往往错误地假设AI技术就能解决以此推及的、现实世界中的类似任务。但是AI学术上的问题往往是定义在狭义而简化的假设下,而现实世界的具体任务都有很大的复杂性和不确定性。第三是“鲁棒坑”,受限于当前深度学习算法和训练数据,对容错性很低特别是使命关键的应用领域比如无人驾驶等,今天的AI还没能达到实际“落地”的能力。马库斯告诫我们必须关注“AI鸿沟”,因为踩坑的代价是非常高的。

显然,这才是我们这个阶段发展人工智能最该担忧的是,先别担忧人工智能统治人类了。

(我在跑机器学习模型时,我家猫咪都看我代码了,猫咪马上学会AI,统治人类(*^ω^*))

参考

  1. ^人工智能发展正迎来第三波浪潮 http://www.xinhuanet.com/tech/2019-07/30/c_1124813935.htm
user avatar

人工智能对我们人类最大的威胁在于,有可能使得大量人类成为完全无用的劳动力,这是《未来简史》里的观点。但这是在资本主义下的极致设想,我们相信通过更合理的社会模式有可能会使得所有人活得更幸福。即将大量甚至所有低价值重复性的劳动交由机器完成,如果届时能突破可控核聚变的技术壁垒,所生产的产品完全可以作为公共服务性货品输入到社会。

即使做出极致性设想,人工智能完全觉醒,作为碳基的人类和硅基的机器也完全不在一个生态位上,我们的道德体系包括价值观也不见得适用于机器,事实上我们完全可以输入性的塑造机器的价值观,以现有的价值神经网络技术就可以设定参数。

与其说人工智能对人类产生威胁,不如说是人类自身矛盾的暴露,我们需要解决的其实是人类自身的问题。比如将人工智能用于军事科技 (现有的忠诚僚机就是一个运用方向 ),但这是人类社会自身的矛盾,至于造成大量的失业人员,这也是人类自身的矛盾,人类完全可以修改社会分配方案。

现有的情况下,我们将人工智能视为下一次工业革命的方向,人类目前的生产力水平还达不到共产主义的门槛,1级文明也还尚早,实在没有理由停滞人工智能的发展。难道我们要一直这么996内卷中?

类似的话题

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有