问题

我们难道必须发展人工智能吗?

回答
关于我们“必须”发展人工智能这个问题,与其说是一个非此即彼的选择,不如说是一个复杂且多维度的问题,需要我们深入审视其背后的动机、潜在的收益以及不容忽视的风险。这并非一个简单的技术命题,而是关乎人类文明走向、社会结构重塑以及个体价值定义的深刻探讨。

首先,让我们看看为什么“发展人工智能”这个想法如此具有吸引力,以至于很多人认为我们“必须”这样做。

驱动发展的内在逻辑与潜在诱惑:

解决复杂问题的强大工具: 人类社会面临着无数的挑战,从气候变化、疾病治疗、资源短缺到交通拥堵、信息过载。人工智能,特别是其在数据分析、模式识别、优化决策等方面的能力,为我们提供了一种前所未有的工具来应对这些棘手的问题。想象一下,AI可以加速新药研发,模拟更有效的气候模型,优化全球供应链,甚至帮助我们理解宇宙的奥秘。从这个角度看,发展AI是为了增强人类解决自身问题的能力,实现更美好的未来。
经济增长与效率提升的引擎: 在全球竞争日益激烈的今天,技术的突破往往意味着经济的腾飞。AI在自动化、智能制造、个性化服务、金融分析等领域的应用,能够极大地提高生产效率,降低成本,催生新的产业和商业模式。那些掌握了先进AI技术的国家和企业,很可能在未来的经济格局中占据优势地位。因此,许多人认为,不发展AI就意味着被时代淘汰,经济上落后。
解放人类的潜力: 一种更乐观的观点认为,AI的极致发展可以帮助人类从繁重、重复、危险甚至令人枯燥的工作中解放出来。AI可以承担那些我们不擅长或不愿意做的事情,让我们有更多的时间和精力去从事创造性的工作、探索艺术、哲学、人际关系,或者仅仅是享受生活。这是一种对“后稀缺时代”的美好憧憬。
科学探索的前沿: AI本身也成为了科学研究的一个重要领域。理解智能的本质,创造出比我们更聪明的存在,本身就是一项引人入胜的智力挑战。许多顶尖的科学家和研究者投身于此,他们不仅仅是出于功利的目的,更是源于对未知的好奇和对智力极限的探索。

然而,当我们问“必须”发展吗,这个问题就变得更加尖锐,因为它触及了我们是否需要承受与之伴随的巨大风险。

不得不审视的阴影与潜在代价:

失业与社会结构剧变: 这是最直接也最普遍的担忧。当AI能够胜任甚至超越人类在许多领域的表现时,大量工作岗位可能会被取代。这不仅仅是蓝领工人面临的挑战,白领、专业人士甚至创意工作者也可能受到影响。如果社会没有准备好应对大规模失业,可能会导致贫富差距进一步拉大,社会不稳定加剧,甚至引发普遍性的社会危机。我们是否有信心建立起新的社会保障体系、再培训机制和价值分配模式来应对这一切?
权力集中与监控风险: 掌握先进AI技术的组织,无论是政府还是大型企业,都可能获得前所未有的权力。AI可以用于精准地预测和影响人们的行为,进行大规模的监控,甚至操纵舆论。一旦这种权力落入不负责任的手中,或者被滥用,后果将不堪设想。它可能侵蚀个人隐私,削弱民主制度,甚至威胁到人类的自由意志。我们如何确保AI的发展服务于公共利益,而不是成为少数人控制多数人的工具?
安全性与可控性挑战: 随着AI能力的增强,尤其是通用人工智能(AGI)的出现,其潜在的风险也呈指数级增长。一个设计不当或目标与人类不一致的超级智能,其行为可能超出我们的理解和控制范围,带来意想不到的灾难。即使是当前窄领域的AI,也可能因为算法的偏见、漏洞或误判而造成严重的后果,例如自动驾驶汽车的事故、金融算法的崩溃等。我们有足够的手段和智慧来确保AI的安全和可控吗?
伦理与道德困境: AI的发展将带来无数的伦理难题。例如,在自动驾驶汽车面临不可避免的事故时,AI应该优先保护乘客还是行人?战争中的自主武器系统,是否应该拥有生杀予夺的权力?AI生成的艺术或内容,其版权和原创性如何界定?更深层的问题是,当AI在某些方面超越人类时,我们如何定义人类的独特性和价值?我们是否有足够成熟的伦理框架来指导AI的设计和应用?
数字鸿沟与全球不平等: AI技术的研发和应用需要巨额的投资和高度专业化的知识。这可能导致技术和经济的领先者与落后者之间的差距进一步扩大,加剧全球范围内的不平等。发展中国家可能会因为缺乏资源而难以获得AI带来的好处,甚至被排除在AI驱动的未来之外。

那么,回到“必须”这个问题,我们的答案是——并非绝对。

“必须”发展,往往是一种基于现有趋势和潜在利益的推断,但它忽略了“选择”和“方向”的重要性。我们并非被动地被技术裹挟前进,而是可以选择发展的速度、方式和目标。

与其问“必须”发展吗,不如问:

我们“应该如何”发展人工智能? 这才是更具建设性的问题。我们是否应该专注于开发能够增强人类能力、解决全球性问题的AI,而不是那些可能用于监视或大规模杀伤的AI?我们是否应该优先发展那些能够普惠大众、缩小差距的技术,而不是加剧不平等的工具?
我们是否已经准备好应对AI带来的挑战? 如果没有,那么放缓脚步,集中精力解决潜在的社会、伦理和安全问题,或许比盲目追求技术进步更为重要。这包括投入更多资源进行AI安全研究,制定强有力的法律法规,改革教育体系,以及促进广泛的社会讨论,让每个人都能参与到塑造AI未来的进程中来。
是否有替代方案? 在某些特定领域,或许有其他非AI的解决方案能够达到类似的目的,或者其伴随的风险更低。我们不应该将AI视为解决所有问题的唯一途径。

总结来说,人工智能的发展并非一个被动接受的命运,而是一个需要我们主动去塑造、去引导的过程。 我们拥有选择权,选择是加速前进,还是审慎而为;是聚焦于潜在的利益,还是警惕并积极应对潜在的风险。

认为我们“必须”发展AI,往往是受到技术进步的惯性、经济利益的驱动以及对未来美好愿景的向往所影响。但真正的智慧在于,当我们审视其背后错综复杂的利弊,特别是当它可能对人类的生存、自由和社会结构产生颠覆性影响时,我们必须认识到,如何发展,比是否发展,更具决定性。 我们需要的是一种负责任的、以人为本的AI发展策略,确保这项强大的技术最终能够服务于人类的共同福祉,而不是成为我们自身的威胁。这需要我们持续的审视、开放的讨论和审慎的行动。

网友意见

user avatar

乔布斯 1992 年在 MIT 有个演讲,里面他说 Next 会支持面向对象编程,这样程序应用的开发程序速度就会从 3 - 5 年缩短到 1 - 2 年。更多组织就能开始部署自己的软件来服务公司。面向对象编程就像是直接买品牌电脑,而面向过程编程像是自己 DIY 电脑。乔布斯说的是对的,速度快需要的人少的确是明显优势;但是 Next 还是失败了,为什么?因为他说的是面向对象编程的优势,不是 Next 独家的优势。几年之后他带着 Next 的底子回到苹果,顺着大势起来,这就是另外一个故事了。


很多人(尤其是创业者)总容易出一个错:把历史的进程当成了个人的努力。比如人工智能就是一个例子。你看很多人工智能创业者演讲,总是愿意把人工智能并列在计算机、飞机这个级别。但实际上人工智能和面向对象编程一样,是计算机领域的一部分

面向对象编程是历史发展的趋势,现阶段的人工智能技术也一样,这不过是历史的必然。并不是我们要发展人工智能,而是我们发展到这一步了,现在需要人工智能。就像是软件越来越重要,面向过程编程已经满足不了软件的开发速度,所以我们后来选择面向对象编程。人工智能也是一样,你看为什么 20 年前人工智能没这么火?因为没需求啊!没有今天这么多的摄像头;也没有各种各样的硬件终端,这些都是人工智能的地基。在实际中,都是因为摄像头多了,才需要人工智能去识别画面内容。这时候我们不能说人工智能怎么取代了人的工作,而是几千上万台摄像头, 本身就不应该让人去肉眼看。


所以,这个问题的关键不在于是否发展人工智能,而在于我们要不要发展?


举个例子,东北三省每年人口净流出约 180 万人(有些统计口径下是 20 万人),而且这些流出的人口基本都是青壮年劳动力。那么很简单的一个问题:如果东北的劳动力再继续流逝,那么该如何保障经济增长呢?解决办法之一就是提升生产力。


改革开放四十年来,提升生产力的办法无非是两种:人口红利与人口素质提升、新技术带来的生产力。但前面的方法需要依赖人,而人对于中国来讲,可能不会与过去 40 年一样可以依赖了。那么我们能做的,就是依靠技术提升生产力。而人工智能只不过是我们诸多可依赖的技术之一。过去我们坐公交还需要人来检票,但能刷手机之后,还怀念人力检票的年代吗?


我在另一个回答里写过:

担心人工智能取代金融、律师、画家?眼光放的广一点吧,我们的社会非常非常大,总有很多领域不适合人类去做,但因为技术限制我们还必须依靠人。而这恰恰就是现在所谓的「人工智能」技术再帮我们干的事情:把人类从这些工作中解放出来——准确的来说不论是两百年前被路德派抗议的珍妮机,还是现在的人工智能,都在做同样的事情。

引用来源:


要我说也是人工智能名字起的不好,怎么没人说面向对象编程会毁灭人类呢?过去 20 年里让工作消失这件事可都是面向对象编程技术实现的啊,这么说面向对象才是万恶之源!

大面向过程编程存在数十载,开拓疆土,该怎么做,就怎么做,称霸程序圈,征服创业界。

无机器码之晦涩难懂;

无 JS 之边用边骂;

无 Pyhon 之简单粗暴;

无 PHP 之天天引战;

无 Java 之三十亿设备。

壮哉我大面向过程!

死守命令行,拒绝 GUI,驱逐对象,永葆单身!

user avatar

取决于我们的目标是什么。


1,以现有生产力来看,人类的上限,恐怕依然是,“几千万人”过着豪华的日子;“几亿人 - 十几亿人”劳苦地工作;“几十亿”人活得跟动物一样。若想让“几十亿”人都过上“几千万人”的日子,在其他条件不变的情况下(如,没搞出受控聚变),基本上只有一种可能,即创造出合法合德的奴隶来。人工智能的发展目标之一,并非让我们失去工作,而是让我们不需要工作。最理想的人工智能,其实就是这个“合法合德的奴隶”。


2,我们这个物种的存在性,和任何个体的存在性一样,都是不确定的。我们存在的意义是什么?没有正确答案,但有方向性。

一个方向的极端,把人看作是动物,一种过得还不错的动物,大多数人饿不死,但也谈不上太多物质的追求,几千几万年,就一直原地踏步,混吃等死就好。这不一定不好,毕竟对其中的每一个个体来说,也还是有可能,度过一个个谈不上不幸福的人生。

而另一个方向的极端,即信奉物种必须发展,自认高级的物种尤其如此。小则提升生产力,而永恒的大目标,自然还是探索事物的终极规律(可以理解为“物理”或“科技”)。但麻烦在于,因为种种原因,我们对自然认知的边界在扩大,但我们作为一种生物,并没有进化,于是我们认知边界扩大的效率,愈发趋于边际递减。在这种情况下,我们确实也需要试图去创造认知能力的延伸。过去,这种延伸主要是在存储和计算领域,而现在和未来,我们在尝试让“延伸”得以承担一部分“思考”,甚至更多。


3,有关我们的发展方向,还有一种可能,即世界和生活的虚拟化。其背后的哲学大问题,说白了就是对何谓“真实”的思考,也就是黑客帝国的那一套。现在的尝试,类似VR一类,还很初级,跟人工智能的关系也不大。个别创新者,在尝试脑机接口,算是迈出了第一步。当然,这已经不只是人工智能了,而是认知科学的一部分。典型而“理想”的生态,99%的人,选择吃蓝片(blue pill),在虚拟中开心地混吃等死一辈子。今天的游戏、娱乐等产业,其实已经在成规模养猪了,仅是还不够彻底而已 -- 真心无贬义,这没有绝对的好或者不好。而1%的人,凭着兴趣和信念去选择吃红片(red pill),在现实的宇宙中,继续拓展物种认知边界。


4,不局限于人工智能,而是说广义的认知科学,对3进行拓展,还有一种可能的追求,即“思维”的非生物化,甚至以此来达成永生。这涉及另一个哲学层面的大问题,即何谓“生命”,或者,何谓“人”?我们每一个人,自然是人,那么,一个全部由人工设备供能的大脑,是否也是人?如果是的话,如果能将此大脑的所有记忆和功能,平移至一个人工设备里,继续工作,那么这个人工设备是否还是人,还是你自己?


以上所说,即我们追求人工智能的一些终极目标。

而与此实现途径平行的,还有一些其他的途径。最典型的如,说过千百次的,受控核聚变、有关人的功能和寿命解锁有关的生物科技,以及,跨越式的宇航技术。

当然,最“给力”的依然是,我们在“物理”领域,有了飞跃式的更底层认知(解决当今物理界的漫天“乌云”,甚至更多),于是改变了一切 -- 用一种没人能想象的方式,改变了一切。既然无法想象,于是就只能说到此。

(从这个角度讲,我一直都隐隐觉得,我们可能点错科技树了。通过强人工智能来实现终极目标 vs 通过物理学突破来实现终极目标,虽然可能性都不大,但我觉得还是后者的可能性更大些。现如今的这些所谓人工智能,更有可能的结果是,我们屁都搞不出来,但文明却因此永久收敛了 -- 逻辑自洽的论述太长,此处点到为止。总之,目前的所谓人工智能,这个搞下去,有“终极退化”的可能,而不是自我进化。)


以上说的一切,围绕题主的问题,基本上都是在扯淡,或者说,没什么意义。

为何?

今天在人工智能领域最前沿的个人和公司,以及背后的国家,研究和发展人工智能的原因,没前面说得这么高大上。个人想发财,公司想多赚钱,政府想控制人心,国家想实现相对竞争优势,甚至区域或全球霸权。


总之,这背后的主要目的,根本不是我前面说的那些高大上的情怀,而确实就是另一个答主提到的那些,很冰冷的事实:100个人想把原来10000个人的钱全赚了,超爽;一群人/一个国家想把全球的财富都搜刮了,超嗨。总生产力是否提升了?是;是否所有人都会变得更好?并不是。


然后,题主说得没错,在这个机器下围棋秒杀人类的2018年,弱人工智能也就那么回事儿,强人工智能连边儿都没碰到呢。那个经典的比喻,“炼金术士”,其实很恰当,大家都只是在已经存在了半个多世纪的传统计算机架构上碰运气。我们确实在计算机更底层物理架构上,有所突破,如量子计算机等,这是个好事儿。但起码今天,你我听到的一切所谓人工智能的重大突破,性质依然是在Jensen Huang家的二极管上面搅汤药。而全民热潮呢?学什么?Python! 天呐......

而就算我们有所突破,让机器能在更大规模和深度上,代替我们人类的功能,放心,起码几十年,这种“替代”的好处,只会被少数人拿走。生产力变化引起的生产/分配关系变化,始终都会有滞后性。滞后多久?节点在哪儿?没人知道。


有关于此,有个很普遍的说法,即“旧职业没有了,新职业会出现,甚至数量更多”。这里直接给断言(“断言”的意思是,我只负责扯淡,不负责举证和论述,就当是我个人的洞察结论好了),对于人工智能相关的产业革命,这种说法是纯扯淡,纯粹彻底的扯淡 -- 与前几次工业革命不同,人工智能相关的产业革命,旧的工作被替代了,工作确实就没有了,也并不会有新的同等数量/报酬的工作被创造出来 -- 最起码,对于当下已经成年的人来说,想回炉重造,基本上甭想了。

此技术发展的终点,如前所说,确实是大多数人都不需要工作了;而现状是,大多数人都需要工作才能生活。但这两者之间如何过渡?过渡期怎么办?人工智能并不负责,人工智能的从业者也不负责。

至于政府是否负责,这会引起什么生产关系的变化,这个话题大了去了,拭目以待吧。

user avatar

东德并入西德之前,东德秘密警察达9.1万人。而间接充当线人、密探工作的总人数则接近50万。在柏林墙倒塌前约30年里,平均每天有8位东德人以“破坏国家安全”的罪名遭逮捕。如果算上线民,平均每66名东德公民中就有一人常年为秘密警察工作,对比于盖世太保(1:2000)和克格勃(1:5830),这个比例可谓高的离谱。前东德仅有的1800万人口中,有600多万人被建立了秘密档案,也就是说,每3个东德人中就有一人曾处于秘密警察的监控之下。

——百度百科rc.mbd.baidu.com/8hbk8k

然而这并没阻止柏林墙倒塌和东德并入西德。

每每回顾这段历史,我总是感慨,靠人力监督社会,不仅耗资巨大,也完全不现实。

但是有了人工智能,这一切就简单得多了。

是的,我们必须发展人工智能。

图片:东德秘密警察题材电影《窃听风暴》,柏林电影节金奖,可以一看。

user avatar

非洲马赛人平均身高一米八,成年礼是从狮子口中夺食。狮子们也很配合,毕竟被杀的多了,也就知道暂时撤退不丢人。

100万年前,渔猎文明的人类都是这么彪悍的。但自从人类学会了农业,平均身高就成了宋小宝——只有一米六。


我要是个人类,我肯定反对农业。一堆农民长得跟侏儒一样,又骨瘦如柴。这样子太丢人类的脸了。

可是渔猎文明被打败了,农业文明得胜了。

因为渔猎文明人少,还生得慢。就算是北京这么大的面积,也不过能养活3000个猎人。但是,可以养活三十万个农民。

人多,确实力量大呀。


AI带来的失业可以预见,那么我们就不发展了?

可以。

但问题是别人要去发展它我们怎么办?他们要来打我们怎么办?



更新:大家对一些数据讨论的很热烈呀。

马赛人没有2米,但有1米8。农民也不是1米4,而是1米6。(zh.wikipedia.org/wiki/%),但是我想,我的论点不必改变。

旧石器时代开始于200万年前。

大北京2521亩土地,自己算算能养活多少农民。

除了身高,我并没有搞错其他数据。

纠结于数据的人,我送你们费曼的一句话:原来你们把脑子都花费在了记这些东西上面了。

user avatar

设想一下最极端的情况,当人工智能完全取代了人类所以劳动,人类就不需要工作了,直接分配下就行了。

人类的经济活动归根结底就是两个问题:制造和分配。

所以如果人工智能能够提高生产效率,怎么可能是一种悲观的未来?

一个物品的价值是取决其中凝固了多少人类劳动的时间,如果一个商品完全不需要人类的劳动参与,那么这种商品的价格将是零。

实际上自工业革命以来,机器已经取得了99%的人类劳动,人类不是没活干了,而是活的更轻松更幸福了。

user avatar

给岁月以文明,而不是给文明以岁月。

硅铁基必胜!!!

:)

类似的话题

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有