百科问答小站 logo
百科问答小站 font logo



为什么有很多名人让人们警惕人工智能? 第1页

        

user avatar   lichengang 网友的相关建议: 
      

2017.08.30 更新:偶然看到一個評論,想到這個問題,就來更新。其實 18 年前我已經在用 IBM ViaVoice 語音輸入中文寫文章。那時 IBM 的語音識別準確率、速度比現在科大訊飛差不了太多。很多技術應用都是一陣熱潮。潮漲潮跌,花開花落,而技術本身並沒有新的大的突破。人工智能誕生第一階段差不多是 1943 年到 1956 年這段時間。那時開始是 Grey Walter Turtles 和 Johns Hopkins Beast,控制它們的模擬電路。隨後,閔斯基與 Dean Edmonds 建造了第一臺神經網絡機 SNARC。之後,Newell 和 Simon 開發的 Logic Theorist 證明了《數學原理》中前 52 個定理中的 38 個。而這些已經是上個世紀中葉的事情。


經驗有限,不保證所寫正確,僅供參考,轉載請事先征得同意。謝熊貓君的長文翻譯自人工智能愛好者 Tim Urban 的《人工智能革命》,這篇文章有有趣,也有啟發性,遺憾的是有過多事實性錯誤,當然這不是譯者謝熊貓君的問題。文章內容大致可以分成三部分:接近真實的事實、虛構的事實、基於接近真實的事實和虛構的事實進行的推論。特別是一些事實性錯誤,誤導性太強。


一、《人工智能革命》一文的事實性錯誤


先不評價博文的觀點是否合乎邏輯,先簡單說幾個事實性錯誤:


1. 金融市場對於電腦來說太簡單了——錯誤

就我之前在投行對沖做量化交易了解的情況,還沒有哪家機構開發出長期、穩定、可自我調節的賺錢算法或策略。目前所有的算法或策略都要靠人監測和調整。背景知識可參考 在量化交易方面,美国究竟比中国领先多久? - Leon 的回答


2. 翻譯對於電腦來說太簡單了——錯誤

可以參考 Google Translate 和其它幾家專門做機器翻譯的效果,離信達雅還有很遠距離。


3. 人工智能已經在幾乎所有需要思考的領域超過了人類——錯誤

大部分需要復雜思考的領域,人工智能都遠遠趕不上人類,有的甚至都還沒有入門。


4. 視覺、動態、移動對電腦來說太TM難了——錯誤

電腦這些「部分領域」相對已經做的非常好,超過了人。 關鍵詞是「部分領域」和「相對。在不少方面 computer vision 要達到人的水平還比較難,或者從本質來說還沒有做到。但若只看解決實際問題的效果,在部分應用領域確實強過人類。我參與過一些安保項目,有些是實在能用的技術,而不是刷爆朋友圈的公關宣傳稿或學術造星活動。相對人工智能其它領域,computer vision 是目前發展路徑比較成熟,前景比較明朗的領域。


二、為什麽很多名人讓人們警惕人工智能


1. 人工智能的風險

人工智能使用越來越廣泛,即使沒達到強人工智能程度,也已帶來潛在問題和風險。畢竟工業機器人出現事故造成傷亡也算不上稀奇的新聞了。


2. 影響力

為推動他們期望的立法和或行業規則鋪墊,也是為了獲得這個領域更廣泛的影響力。


三、題外話


作者 Tim 花了三個星期研究人工智能,主要信息來源是非技術類的文章和書籍。在現在大部分學術論文都沒法看的情況下,用非技術類文作為支撐寫科普類文,不太可取。富有情緒張力、腦洞大開的文字很有感染力也極易流傳,這篇是很好的例子。想要獲得更接真相的知識,我的體會是少看觀點結論,主要看事實,根據事實自己思考形成觀點。

我的微博猫完,以及新世界内测


user avatar   xiepanda 网友的相关建议: 
      

人工智能很可能导致人类的永生或者灭绝,而这一切很可能在我们的有生之年发生。


上面这句话不是危言耸听,请耐心的看完本文再发表意见。这篇翻译稿翻译完一共三万五千字,我从上星期开始翻,熬了好几个夜才翻完,因为我觉得这篇东西非常有价值。希望你们能够耐心读完,读完后也许你的世界观都会被改变。

======================
内容翻译自waitbutwhy.com
原文地址:
The AI Revolution: Road to Superintelligence
The AI Revolution: Our Immortality or Extinction

自2015年2月24日起转载请务必私信咨询,否则视为未授权转载 知乎 @谢熊猫君

=======================

因为知乎的字数限制,这里只能发截图,字数太多错别字难免,已经在知友帮助下修改了很多,截图修改不方便,一切以文字版为准。


转载请转载文字版。



如果想要看文字版的可以移步我的知乎专栏:
为什么最近有很多名人,比如比尔盖茨,马斯克、霍金等,让人们警惕人工智能?


















======================

相关阅读:

如何用通俗的语言来解释「费米悖论」? 假如把一个人粉碎成原子再组合,这个人还是原来的人吗?



相关来源:

The most rigorous and thorough look at the dangers of AI:
Nick Bostrom – Superintelligence: Paths, Dangers, Strategies

The best overall overview of the whole topic and fun to read:
James Barrat – Our Final Invention

Controversial and a lot of fun. Packed with facts and charts and mind-blowing future projections:
Ray Kurzweil – The Singularity is Near

Articles and Papers:
J. Nils Nilsson – The Quest for Artificial Intelligence: A History of Ideas and AchievementsSteven Pinker – How the Mind WorksVernor Vinge – The Coming Technological Singularity: How to Survive in the Post-Human Era
Nick Bostrom – Ethical Guidelines for A SuperintelligenceNick Bostrom – How Long Before Superintelligence?
Nick Bostrom – Future Progress in Artificial Intelligence: A Survey of Expert Opinion
Moshe Y. Vardi – Artificial Intelligence: Past and FutureRuss Roberts, EconTalk – Bostrom Interview and Bostrom Follow-UpStuart Armstrong and Kaj Sotala, MIRI – How We’re Predicting AI—or Failing ToSusan Schneider – Alien MindsStuart Russell and Peter Norvig – Artificial Intelligence: A Modern ApproachTheodore Modis – The Singularity Myth
Gary Marcus – Hyping Artificial Intelligene, Yet Again
Steven Pinker – Could a Computer Ever Be Conscious?
Carl Shulman – Omohundro’s “Basic AI Drives” and Catastrophic Risks
World Economic Forum – Global Risks 2015
John R. Searle – What Your Computer Can’t Know
Jaron Lanier – One Half a Manifesto
Bill Joy – Why the Future Doesn’t Need Us
Kevin Kelly – Thinkism
Paul Allen – The Singularity Isn’t Near (and Kurzweil’s response)
Stephen Hawking – Transcending Complacency on Superintelligent Machines
Kurt Andersen – Enthusiasts and Skeptics Debate Artificial Intelligence
Terms of Ray Kurzweil and Mitch Kapor’s bet about the AI timeline
Ben Goertzel – Ten Years To The Singularity If We Really Really Try
Arthur C. Clarke – Sir Arthur C. Clarke’s Predictions
Hubert L. Dreyfus – What Computers Still Can’t Do: A Critique of Artificial Reason
Stuart Armstrong – Smarter Than Us: The Rise of Machine Intelligence
Ted Greenwald – X Prize Founder Peter Diamandis Has His Eyes on the Future
Kaj Sotala and Roman V. Yampolskiy – Responses to Catastrophic AGI Risk: A Survey
Jeremy Howard TED Talk – The wonderful and terrifying implications of computers that can learn


user avatar   windycloud 网友的相关建议: 
      

人工智能的浪潮不仅会对技术发展产生最深远的影响,也会对社会结构产生最深远的影响。

从技术发展而言,人工智能的发展过程中是一个非常神奇的“去专家化”的过程,以语音识别为例,最早的时候,训练一个模型需要大量的语音专家来调试。而到现在,如果你要训练一个新的语音识别系统,可能你召集了一批工程师以后,最后的最后才会考虑要不要找一个语言学家把把关。

这样的事情同样出现在了围棋领域,我们知道围棋是一个实战性非常强的竞技游戏,每个人都有不同的理解,AlphaGo 最初无疑依仗了不少职业棋手的调试,但是随着模型额快速完善,显然一个两个围棋专家很难再对AlphaGo的提升做出实质性的影响,例如我们公司最近也开发了一套围棋AI系统,期间几乎没有对围棋高手的需求。

“去专家化”的背后本质是机器的大量练习让程序在“经验”上超越了人类可能达到的“熟练程度”。我们可以期待越来越多的应用层突破,产生在我们自己理解以外的高度。


从社会结构发展的而言,最严峻的就是传统的就业体系,300年前机器逐渐开始替代梳理熟练工人,100年前越来越多的交通发展刷新了车夫可能的认知,40年前计算机开始替代人类推算的部分工作。到现在,很多重复性工作,甚至一部分创意性决策性工作,可能永远都不需要雇用一个人了。

以前很多人,干了一辈子收银员、停车场收费员,被裁撤的时候一行清泪,心里常常会想:做了一辈子这样的工作,我现在还会什么,还能找什么工作。

总有一些时候,技术走在了劳动关系的前面,这一次,可能超越太多太多。

不过不同于危言耸听的马上爆发性增长,我们还是先认清现实,那就是理论的成熟都是随着一轮爆炒一轮冷却带来新的高度。



说讨论这种事情的三个原则

1.当个侦探,尽量还原引用名人的实际场景和话语,结合对产业的实际认识进行阐述。

2.聊聊行家,找国际国内自己能找到的最靠谱的专家、产业一线大佬探讨。

3.三好学生,以搞清楚问题本身涉及的概念为最基本要求。


说说基本定义

「人工智能」怎么定义其实一直是个难题。不过通过一张图至少可以知道处于哪个位置:

1.严格标准看这里

说回实际的,我们说一个公认的标准,「图灵测试」:

如果一台机器能够与人展开对话(通过电传设备),并且会被人误以为它也是人,那么这台机器就具有智能。

讲真,如果对话不局限在声音,棋盘也可以的话,深蓝(deepblue)和更深的蓝(deeperblue)早就在二十年前实现了。卡斯帕罗夫当时有在和人下的「错觉」。

AlphaGo的时代更不必说,巨大规模的硬件集群,已经不是误以为是不是人的问题,而是带有了明显是凌驾人类的走子系统。这时候你误以为对面是人在下反而是贬低了。

2.学术定义看这里

我们知道信息论等等计算机最早的原理是很早的事情了

在计算机科学刚萌芽的1956年夏, 美国达特茅斯学院召开了历时两个多月的会议,学者经过充分的总结和讨论,首次提出了“人工智能” (ArtificialIntelligence)这一术语。斯坦福大学人工智能实验室的教授尼尔斯·J·尼尔森提供了一个可供参考的定义: “人工智能致力于使机器智能化,智能化是衡量实体在特定环境中反应和判断能力的定量指标。”

人工智能致力于使机器智能化,智能化是衡量实体在特定环境中反应判断能力的定量指标。

反应和判断能力,「听说读写」是反应,「意识」有关判断。

从前计算机语音识别还需要语言专家调试,现在语料库茫茫浩如烟海,全凭算法自己训练。

就像下面这段话说的:

如果你是主编,很遗憾,你是一个悲剧人物。

你能够为这个行业做的最大贡献,就是尽可能放弃自己的权力,削减自己的职能,鼓励每一个下属尝试没有主编的媒体形态,配合技术部门创造不需要主编的生产流程,直到让自己这个职位的市场价值归零。


人工智能无疑会带来对人类时间概念和过程感觉的再一次冲击。


还原 “案发现场”

(柯南音乐起)

问题分别引用了霍金博士(你有时间简史么)、比尔盖茨(退学首富)、马斯克(新时代钢铁侠)的内容,我分别找回了他们当时的演讲视频,发现根本不是媒体那个调调。

大多数时候,名人们都是非常周全的表达意见,如果你还在想为什么媒体会搞以偏概全的失心疯,你反过来想想提这个问题的人和观众们是不是顺坡下驴。

一篇还原图就能给大家很直观的感觉了吧。


这个形容用在人工智能上是一样成立的。随着技术的不断成熟,硬件的不断加强,历史的车轮就这样摇滚过来。谨慎是好事,防范与未然是霍金博士的本意,也是大家正确理解人工智能的一种思路。

霍金博士里面有一句是这样讲的:「随着好处的带来,人工智能也会带来危险,比如强大的自动武器,少数人欺压多数人的新方法」,我不知道读者多少有风控经验,很多岗位的风险控制是靠制度和多人分权来执行的。

举个例子,银行金库的钥匙经常需要不同人的钥匙一起使用才行,两个库管员想要串通,需要同谋违法,还要目标统一,还要分赃合理。

我们说很多反派电影里,一个大反派有很多大开脑洞毁灭人类的玩法,主要还是得益于有大量不受监管的黑科技得以放大自己的各种邪恶意念。

比如说这样一个木箱,用一个什么「秽土转生」的什么术,弄出很多传奇战士的复刻版,执行一个人的命令,引发一场大战,这是每一代技术革新面前我们都必须思量一下的。

你不要以为这时候「人工智能」离你很远,你可以试试搜索一系列危险关键词,然后车站、广场上漫无目的溜达溜达,温和派的查水表的人儿们会悄悄来找你。

以前有部电影,说一个善良的人被未来的智能算法认定会杀人,警察出动「防范于未然」。剧情我们不展开聊,单说这个情景下,权力在算法手里,作为人的警察倒成了算法的附庸。


警惕不为过,过度解读还是要着调。


那是小时候

我记得小的时候,有一本书叫《把信送给加西亚》,说的是麦金莱总统经济管理的不错以后发动了「美西战争」(就是美国和西班牙的战争),有一天他想和身在古巴的加西亚将军取得联络,他派了「忠厚勇敢」的罗文中尉,中尉在有大量信息未知的情况下,徒步三周找到了将军。

从前我们喜欢说这种不顾一切完成目标的感觉很好,中间的千里跋涉都是人生的升华。

如今传达信息都用微信,以往相隔两地的爱人需要信件往返数个月才能互诉衷肠的那些文字,几个小时就可以翻来覆去说个遍。


我们不怀念被替代的邮差,不感慨不再需要徒步三周送一封信的中尉,因为我们已经处在一个技术飞速迭代的社会之中。

人工智能的大发展真正值得警惕的,不应该是技术本身,而是人的自我意识与格局,时间观等等 能否还能和飞速发展的时代匹配起来。现在每一个人都开始对股灾思考,多元化自己的技能,喜欢看短至十几秒的视频。

别忘了曾几何时,我们并不是这样的节奏,并没有那么多学习的压力。

从前在线课程能卖多少,现在为了听名人多说几句可以动辄就有数万人甚至数十万人付费购买各种「课程」。

时代的车轮越来越快,压力和焦虑才是每个人自己应该关注的。


不要想太多

AlphaGo 是成功的人工智能典范无疑,但是很多行业的现状并不值得大家这时候去惊呼什么「强人工智能」。

别忘了人工智能本身是依靠巨量数据训练的算法,不是凭空变出来的。

AlphaGo 依靠的是自己和自己对弈,这种基于MCTS 随机性基础上的训练方法对生活中大多数问题还是没有一点办法。

比如说现在仍然有一半以上的企业大量的信息是完全手写不进行录入的,大量的医疗病例不仅是纸质的,而且布满了手写的甲骨文,根本不知道写的什么玩意……

人工智能的大规模演进背后依靠的是行业的规范化,数据量的多维度积累。


写在最后

视野上,我们需要行业前沿讲一讲真的在发生的技术变革;

心态上,也许有更好的思考方式和时间观。

如果你想正经聊聊人工智能,我们请到了国内最大的人工智能上市企业总裁 @胡郁,人工智能科学家 @北冥乘海生 ,数据采集专家 @路人甲 以及在人工智能、数据一起同行的企业创始人们 @王汉洋@Kaiser@黄震昕@桑文锋@张一甲 @小赖 欢迎来这里:


这次我们会随机抽取听众送出最新的智能硬件,我才不会告诉你。

点击:给自己未来做打算,还是要和行业最顶级的大佬学习一个


user avatar   masterpa 网友的相关建议: 
      

我们可以警惕人工智能,但无需妖魔化人工智能。不管我们是否做好了准备,人工智能已经开始对我们产生影响了。这是因为我们面临的问题是到了一个分水岭:是继续重复人类原有的社会模式,还是更新到另外一种?按照个人习惯我先放观点:


「所有文明的跃进,都是奴隶堆砌而成」——银翼杀手

不论是几千年前,还是现在,我们的世界都有一个很简单也很残酷的规律:一部分人过的总要比另外一部分人更好。从奴隶社会到封建社会,再到资本主义社会;甚至是我国的改革开放,每次社会的进步一定是依靠着压榨一个阶层产生的。我们今天能在北上广深每天健健身买买花消费升升级,是因为我们能享受到廉价劳动力带来的好处。但你关心过这些所谓的「廉价劳动力」怎么想吗?我们经常说「人口红利」,但承认吧,没人希望自己的孩子去做「人口红利」干的那些活。

如果我们人类想继续进步,却不想继续压迫自己的同胞,那我们能做的事情有且只有一个:依靠机器。我们今天不是人工智能太多,而是太少了,我们对机器的压榨还不够。


可能和其他答主看这个问题的角度不太一样:因为我就是一家人工智能公司的创始人,我每天都在面对人工智能与人类关系这样的问题。不论是让机器辅助人、取代人、甚至是指挥人,这些事情我都做过。我和工程师们一起写过可能会让一个职业消失的代码、也蹲在过工地里面和工人们一起感叹过这活不是人干的。

而在不断的与人,与机器打交道的过程中,我自身的想法也在不断变化。两年前我一直认为人工智能应该是辅助人的;但现在,我认为人工智能辅助我们只应该是暂时的,最终目的必须是从某些方面彻底把人类解放出来。因为我亲自做过那一项项痛苦而毫无乐趣的繁琐工作后,我最大的感觉就是:如果一百年之后,我们的后代还需要忍受这种痛苦,那就是我们的失败。

很多人因为身份和位置的问题,不愿意这么赤裸裸的说出来,那就交给我吧:人工智能就是要取代人,但目的不是为了让某一个个体失业,而是把我们人类解放出来。我们在这个革命中失去的只是锁链。获得的将是更美好的未来。


比如有这么一个问题:

下面这张图的人群中,你可以找到有危险动作的那个人嘛?

如果是一万张呢?

如果是每秒钟就有一万张呢?

不着急看着照片,里面的问题在哪留到最后再揭秘。

你感觉这是个应该让人类去做的活吗?

而类似上面这样的活:

这就是我们平时接触不到的,工厂工人在干的事情。

冒着生命危险保障我们用电的电网工人在干的事情。

风力发电风机里面顶着五十多度的温度挣得还不如北京一个大学生毕业起薪多的检修师傅在干的事情。


人工智能干的可不是什么阳春白雪的活


担心人工智能取代金融、律师、画家?眼光放的广一点吧,我们的社会非常非常大,总有很多领域不适合人类去做,但因为技术限制我们还必须依靠人。而这恰恰就是现在所谓的「人工智能」技术再帮我们干的事情:把人类从这些工作中解放出来——准确的来说不论是两百年前被路德派抗议的珍妮机,还是现在的人工智能,都在做同样的事情。


很多人可能看了上面的例子,感觉的确机器能帮助我们做很多事情——但这会不会反过来造成我们失业呢?

「机器一直在造成人类失业。今天一个办公室职员用 Excel 做的事,在六十年前很可能还是由一整间办公室的几十名员工在做。直到一九八零年代初,东京地铁都还在依靠人工检票。机器接管了这些工作,在当年毫无疑问也令员工感受到了威胁。但今天有谁会为这些劳动岗位的消失感到惋惜?」*
——《泛化智能宣传手册》,本段文字作者 @不鳥萬如一

从最根本上来讲:技术总是导致人类失业的,这和技术是不是人工智能关系不大。很多人不愿意去医院,并且感觉这地方不吉利––但医院是让人重回健康的地方,我们应该讨厌的是疾病本身而不是医院。是先有病才去的医院,而不是反过来去了医院导致你生病。

人工智能会让人失业,担心失业应该想的是如何让自己不失业,而不是过于关心让自己失业的是人工智能还是人工智障。

而且从现实中来看,工作的种类是越来越多的,因为人类社会的工作在越来越细化。十年前说运营没人能想到新媒体运营这个职位;或者说经理也很难联想到互联网公司的产品经理。技术在爆发,而人类的欲望也在爆发,工作机会同样爆发。

说句题外话,包括人工智能在内的技术本身是希望让人类的生活更好负担更少,而不是希望具体某个人失业。我们为什么不能问问自己:人类必须要永远停留在工作/生活这个循环里吗?为什么人类一定要「工作」?人的自由而全面发展要永远停留在一句口号上吗?


虽然都说屁股决定脑袋,我是做人工智能的,那肯定我不会说人工智能的坏话;但我还有一个更本质的身份:我是一个人,人类的一员。

昨天看到知乎一个回答,答主说早上看到一个老太太犹豫了半天买了两个茶叶蛋,想给老伴吃;但老太太回到医院的时候老伴已经过世了。这就是我们人类,我们无助,无力,生活里充满了无聊无趣的故事。我们有喜怒哀乐,有生老病死。所以有的人认为「人生实苦」。

正是因为这样,我们才创造文化,发展技术。一个赤身裸体的人,做不了什么;但拿到合适工具的人,就像神一样,甚至能做的更好。技术是解放人类的武器,她给予我们开拓新未来的能力。


「在个体意义上,只要能找到合适的工具,他就像神一样,拥有按自己意愿主导生活的权力。」——《数字乌托邦》

不要把人工智能当成洪水猛兽,她只不过是一群对人类充满信心与希望,渴望一个更美好未来的人类,为我们创造出来的工具而已。



//对了,最开始这张照片没啥问题,我随手从 adobe stock 上面下载的(逃

现实中很多检修维护的工人每天看一万两万张图,其实有问题的只占非常小的一部分,但却要每张都仔细看。这就是他们每天在做的工作,眼睛里冒着血丝在干的工作。


打个广告,15 号开始我们会在知乎做一系列 live,主要讲的就是人工智能。由科大讯飞的总裁 @胡郁 、我们( @泛化智能 )和 @不鳥萬如一 、《计算广告》的作者 @北冥乘海生@景略集智@Kaiser 、造数的 @云天外 、探探的 @路人甲 和甲子光年的 @张一甲 等人一起举办。一共五场视频直播(对!就是类似快手的视频直播)。每场单买是 19.9,五场打包目前折扣后才 29.9 还挺合适的~

对话人工智能

点上面这个链接进去就可以购买。


其中我和 @不鳥萬如一 这场主要会讲一讲人工智能和失业的关系,欢迎大家来听!


user avatar   hesenbao 网友的相关建议: 
      

因为AI有可能在将来杀死意义。


看吴军老师写的一篇文章提到,AlphaGo最开始学围棋的时候,参考了人类高手的棋谱,但后来发现,人类的围棋经验反而会将AI教坏,升级版的AlphaGo Zero不再使用人类对弈数据,反而变得更厉害了。


我不知道AlphaGo Zero是否真的一点人类下棋经验都没继承,如果是真的,那就太让人沮丧了,人类几千年来摸索出的对弈经验被证明是拖后腿的东西,一个算法高明且算力充沛的AI靠自我反馈就能摸索出围棋这门技艺的极限,围棋过去所承载的那种追求最优取舍之道的深邃哲思,似乎在意义的层面上消失了,如今被AI打成了一个“只要开心就好”的普通游戏。


我就怕将来有一天,AI发现所谓的文学其实也不过是个数学问题,人类之前的写作经验也一样是拖后腿的麻烦东西,那些被视为不可替代且弥足珍贵的细腻情感,能够被AI轻易复现,然后流水线一样地呈现出震撼人心的伟大文章,那时候文学就会陷入虚无,写作说不定会变成一种犹如宗教仪式般的行为。


文学沦陷之后就是音乐,音乐沦陷之后就是美术,总之人类那些不可名状又充满朦胧的表达,全都被总结为数学问题,然后一一破解,文化在整体上变成了一种拖后腿且没意义的东西,人类最终又回到了单纯地进食、交配、繁殖的状态里去,忘记并拒绝再思考意义为何物,就好像人类这个物种刚出现时的样子。


最后,我们会发现,人类这个物种在生存方式上走了一小段弯路,但很快就又走了回去,一开始是啥样,最后还是啥样,如果置身于这一小段弯路中,我们会觉得波澜壮阔跌宕起伏,但在更大的时间尺度来看,这就真的只是一小段弯路而已。


user avatar   ma-qian-zu 网友的相关建议: 
      

从我最近的经验看,对人工智能的“恐惧”是客观存在的,人类也的确有摆脱AI“控制”的本能,但原因不在于这东西太强,而是因为它还不够强。

首先声明,AI利益相关,最近有朋友赠了我一段时间的尼桑新车测试权,号称有源于NASA的智能安全系统。我拿到手之后,朋友告诉我汽车配备了新技术,随车AI能自动避免追尾和撞人。然后问我打算怎么玩,我回答说:

“我必须知道如何用半秒钟关掉AI”

依据他的介绍,这车能辨认障碍物的距离,能发现行车轨迹上的汽车和人,判断两者之间的相对运动速度,在我快速接近的时候发出提醒,提醒无效的话就紧急制动,拉紧安全带,在障碍物面前停车,至少能避免我以危险速度撞上去。

介绍听起来很美好,我能想象设计者大脑中的画面——半睡半醒的驾驶员,忽然穿越马路的儿童,前车紧急制动的同时响起警报声,在撞击前0.3秒死死刹住了车轮,从而挽救了1个儿童和两辆汽车,赢得一片赞叹。

然而,作为一个交通土建专业的毕业生,作为见过千奇百怪车祸的老司机,我却想到了另外的画面——公路上失控的大卡车横扫而来,我必须迅速转入和公路相交的小路避祸。但小路上已经停放着一辆轿车,我只有撞上去才能幸免,这时“智能”防撞系统发挥了作用,先是尖啸后是刹车,完美地把我拦在大卡车的毁灭路线上……

其实,在很多小概率事件中,汽车并不是被简单地当做交通工具使用的。平时被视为事故的“撞击”,在特定条件下,也可能被当成汽车的主要功能。如果AI每次都在撞击前接管刹车系统,需要破墙而出的司机将会无奈地被困,劫匪只需站在路中间就能拦下每一辆车。我承认动作片夸大了这些小概率事件的概率,但不可否认现实中完全可能会有类似的场景。在这些情况下,我希望还能靠自己的大脑自救一下,而不是在AI安排下“安全”地等死。

所以,刚拿到测试车,我就确定了测试目标——如何在警报响起之后克服AI干扰,坚决地撞上去!当然我不会因此就去高速公路上找人追尾,而是搭建几个能愚弄AI的假目标:

为此我搜罗了全部能找到的纸箱:

纸箱是用来支撑横幅的:

我猜汽车设计师中也有人考虑到了类似情况,所以在方向盘下面设置了一键关闭防撞AI的开关:

因此,我的测试思路非常简单,就是用纸箱配合条幅,搭建一个有立体感的“汽车”,借此触发AI的警告。但在警报声响起之后的瞬间,我将试图关闭AI,或是通过加油门来抵消刹车,坚决地撞上障碍物。如果我能按照我自己的意志撞上条幅,就算测试通过。

事实证明,在练习几次之后,我按关闭键的速度已经被压缩到半秒之内,能够在自动刹车起效之前就重新夺回汽车的控制权。如果我全然不顾警报,只靠加油来抵消制动,虽然撞击效果有所减弱,但也基本能完成“撞上去”的任务。

下一层次的测试更现实一点。即在不得不撞过去的情况下,到最后一刻才选择撞哪一边(比如说便宜的一边):


事实证明,虽然AI不一定每次都能做到警告并刹车,但至少在警告响起来之后,我还有选择撞哪一辆的权力。这AI看来还算“安全”。

事后我仔细想了一下,我坚持要获得自己操控汽车的权利,不是因为AI太聪明吓到了我,而是因为AI太“笨”,只能通过观察前方路况,临时接管制动系统。对于侧面和后方的威胁,尽管也有雷达监测并警告,却无法纳入统一的风险控制逻辑,不会因为后面有失控卡车就允许我撞车保命。至于拦在车道上的行人是不是手持利刃,眼前的墙是不是阻挡我获得自由,那更是计算机从来不考虑的因素。所以,虽然AI在大多数情况下可能会挽救我的命,甚至会挽救我的钱包,我还是希望它能随时关闭,放着汽车让我自己来。

看一下历史,我的想法并不算特别。每一次有新鲜事物进入人类社会,都会有类似的质疑声浪。火车、电灯等著名的段子就不说了,汽车行业内就有一个非常有可比性的案例——安全带。

安全带现在是所有汽车的标准配置,大多数工业国的警察会强制要求驾驶员使用,多数老司机也并不觉得有什么麻烦。但回溯到几十年前,这个简单的小装置也曾经引起过巨大的反对声浪。而且出发点和我担心智能防撞系统差不多——剥夺了人类选择的自由。

下列截图见福特和克莱斯勒公司总裁艾柯卡自传:



这段争论是不是很眼熟?我其实非常理解反对者的立场。因为安全带从不说话,只会在急减速的时候牢牢绑住乘客,并未给驾驶员以“固定——松开”的选择权。这固然减少了大多数碰撞导致的伤害,但在小概率情况下,也的确阻碍了驾驶员的行动自由(必须解开卡扣才能再行动)。万一出现必须尽快离开汽车的状况,的确不能绝对保证安全带会发挥100%的正面作用。

诚然,艾柯卡的观点很理性,但是,我也在理性上很相信智能防撞系统救命的概率远远大于阻碍我逃命的概率,但作为一个凭借自由意志生存了上百万年的物种,我还是希望能时刻拥有最终决策的权力。所以,在这个问题上讲概率论并不能绝对"服人",安全设施的推行除了要靠法律强制,更要在心理上给人“选择权”,即随时关闭自动设备的权力。当年美国能够立法强制使用安全带,也是因为在模拟火灾、爆炸环境下做反复实验,证明了安全带可以迅速解开,让乘客摆脱捆绑状态,这才最终说服公众接受安全带。(未必)


实际上,火灾逃生实验本来并无必要,因为即便在火灾条件下,安全带也更有利于乘客逃生。2012年8月26日,包茂高速公路安塞段发生客车与运送甲醇货车追尾碰撞事故,引发甲醇泄漏并导致两车起火,造成36人遇难,3人受伤。事后经验尸发现,由于未使用安全带,大多数乘客因为碰撞而昏迷,在起火之前已经丧失了逃生能力。而在仅有的几名逃生乘客中,恰恰有一位女士因系安全带而保持了行动能力,从而抓住了紧迫的十几秒逃生时间。可见安全带挽救生命,和解开安全带需要的时间关系不大。

然而,公众就是需要这样的实验,我也必须确信能随时切断AI的电源,在踏板上控制刹车,才能从心理上接受自动防撞系统。这就是我们人类毫无理由的自信。不过,即便是感性认识,也是可以用理性去分析的。看到这个问题之后,我开始审视自己的感性判断——我到底恐惧的是什么?是AI太“强大”么?

仔细思考之后我发现,恐惧的来源并非是AI太聪明,并非AI可以和我的大脑相连,而是正好相反——问题的源头在于AI不够聪明,不能和大脑相连。

比如说,本来汽车已经配备了侧向和后方的测距雷达,但只用来点亮告警灯,不能成为AI判断的参数。如果AI能够“考虑”到这些外界条件,在其他方向有明显威胁的时候允许我撞向前方,我就可以允许AI获得更多的汽车控制权。如果AI能直接把警告输入我的大脑,让我在打瞌睡的时候忽然“看到”撞击的可能性,并通过大脑决策来实现刹车,自然也不必为了节约反应时间而直接控制刹车系统,不给人类做选择的机会。总而言之,至少在现阶段,一个更“强”的AI会让人类更放心。阿西莫夫也在短篇科幻小说《理性》(又译为《推理》)中描写过类似的情节:(全文请点击下面的链接)

[短篇]《推理》作者:[美] 艾萨克·阿西莫夫


在这篇小说中,“出生”在空间站的机器人开始思考自己的存在理由,并创立了一套宗教解释自己的工作。人类工作者对此先是表示恐惧,但发现机器人并不会因此影响工作后反而欣然接受:

[短篇]《推理》作者:[美] 艾萨克·阿西莫夫

科幻时代(其实设定时间是90年代末)的宇航员最终接受了一个信教的机器人;现实中的司机最终接受了安全带,这听起来跨度有点大。但完全可以说两者都是广义的“AI”,因为它们都能独立于人类大脑做出逻辑判断。安全带能在人类不干预的情况下发现加速度异常,这本质上也是一种处理信息的方式,也是“思考”。我们人类能制造替代自己大脑的工具,可能是我们智人打败其他人种(尼安德特人、丹尼索瓦人等)的关键因素——注意我提到的是替代大脑的工具,而不是“工具”。

(以上三图均为北京周口店遗址博物馆的科普挂图)

根据现在的考古发现和生物学观察,无论是尼安德特人、大猩猩还是海獭,都能在一定程度上使用工具乃至制造工具。智人比他们强,不是强在制作长矛、石器这些随身携带的工具上,而是因为智人具有抽象思维能力,能够设计制造出人类不在场的时候也能发挥作用的高级工具:

(以上2图引自《事物的起源》)

通过这些图我们可以发现,在智人成为独立种族的开始,我们就已经在制造“AI”,来延伸我们的大脑,获得木矛石刀无法捕获的猎物,进而称霸地球。实际上,工业革命也是一个类似的过程。瓦特蒸汽机节约的不仅仅是人的肌肉力量,更节约了人类的大脑:

机器人群体能够干人类 98% 的非机械性工作的时代,社会会怎么样? - 马前卒的回答
自动控制系统是从1776年的瓦特开始的。换句话说,回到工业革命之前的水平,非人力机械只留下马车、牛犁、水车、风车才算完全靠人类工作。那个时代你怀念不?

瓦特蒸汽机,是不是比想象的复杂许多?
蒸汽机离心自动控制器,这才是瓦特做出的最大贡献,他节约了人类的智力而不是体力

每一个自动控制系统都起码节约了一个人

当然,上面提到的汽车自动制动装置、安全带、捕兽夹、瓦特调速器,加上马上要挑战李世石的围棋软件都属于“弱AI”,即没有自我意识,只能按照人类设定程序处理信息的AI。他们的强项并不在于真的去“理解”事实,而是用更高的速度处理事务。所以我们才期盼它们越来越强——再强他们也只是工具,可以被一键关机。人类真正担心的是强AI,即同时具备自我意识和高速处理能力的人工智能。前面转载的阿西莫夫小说情节中也透出了类似的看法——自创宗教的机器人可以因为教义而为人类忠实服务,但也存在因为“教义”而损害人类利益的可能。总之,独立的意识既意味着无限的潜力,也意味着无限的风险。

对于类似的观点,我……没啥明确的看法。因为“强”AI的原理和功能都完全超出了我当下的想象。作为一个普通人类,我连自己为什么有“意识”,为什么有智慧都不知道,更不可能想象一台机器如何具备类似的能力。让我评价强AI是福是祸,就像让不会骑马的原始人评价汽车的利弊一样无稽——我不能评价那些我不知道我不知道什么的东西。

然而,我倒是有个笨办法来趋利避害——用弱AI加强人类自身,让我们来变成“强AI!”

我们回顾一下,为什么围棋电脑可以挑战李世石?不是因为电脑真的理解围棋是什么东西,而是因为电脑拥有远超人类的记忆能力和推算速度。如果我们通过植入芯片增强记忆和计算力,通过添加传感器增强自己的信息搜集能力,世界上第一个“强AI”可能就是我们自己!

实际上,类似的事情我们已经在做了。

如何看待百度将血友病吧归还给原吧主?是一次网民的胜利吗? - 马前卒的回答

一个副部级官员在台上高举自己的智能手机:你们觉得这是什么?

底下众人有答手机的,有答电话的,有答娱乐工具的,都被一一否定。最后这位50后的领导给出了自己的看法:这是有史以来和人类结合最紧密的机器!是人体的新增器官!

虽然手机+互联网+搜索引擎这个“器官”和大脑的结合还非常粗糙,但就我近年招聘经验来看,在媒体工作方面,善于用搜索引擎的人和不会用搜索引擎的人完全就是两个物种,效率差距远大于智人和尼安德特人的差距。如果谷歌眼镜和新一代虚拟现实技术能做到即时从现实中抓取模型进行演算,装备新技术的人类可能会完全甩掉那些前网络时代的同类,创造出他们永远无法理解的技术。更不要说未来通过植入芯片分担大脑职能的人类了。到那时候,我们有意识,有智慧,还有电(光)子计算机的运算速度,还怕什么“强”AI?

至于为人类植入新的传感器,其实我们已经在做了:

电子视觉技术让盲人见光明

人工视觉系统助盲人“复明”(图)

我们既然能把摄像头的光信号直接传给大脑(不需要眼睛这个中介),就能在不久的将来为人类装备更多的感官,让整个世界在我们的“眼中”透明化,甚至可以在虚拟空间中“看到”更高的维度。普通人只能通过数学模型来研究的高维空间,对于新一代人来说可能是“不言自明”的事实。“生而平等”的生物学概念到此将彻底结束。

当然,这样的世界和今天的伦理学标准是有一定冲突的。在各国神话中,有第三只眼的人类不是神灵就是怪物,总之不是人类。如果有人能通过手指观察东西,能通过颅内硬盘调阅百科全书,当代人看他的眼神一定不会太“亲切”。然而,原始人看我们穿各种衣服恐怕也是类似的感受,古代人也无法理解为什么拍照是必不可少的饭前仪式,进步本来就不一定会被古人所理解。人类之所以是人类,就是因为我们的祖先过DNA变异获得了制造工具的能力和抽象思维能力,我们今天修改自己的“外设”来变成超级 AI,变异程度未必就比祖先物种变异的幅度更大。

无论我们如何看待AI的风险,有两个事实是确定无疑的——1 维持现有的生活水平离不开AI;2 用弱AI装备自己的人类会获得竞争上的极大优势。这意味着AI和人类的结合必然会越来越更紧密。我们与其被动地接受这个新时代,不如主动地变成超级智能生物,变得更聪明、更善于交流,更长寿、更强大。

这里我再引用一下之前的发言:

机器人群体能够干人类 98% 的非机械性工作的时代,社会会怎么样? - 马前卒的回答
除了信息的存储读取,人类还需要提高信息的处理效率。拿算术当例子,原始人和小孩子在作加法的时候都有一个本能的反应——掰手指头,也就是累加计算。3+4,就是先伸出3根手指,再挨个掰出4个,最后回过头把所有手指头点一便数,得出7的结果。手指头不够的话,还可以用木棍、石子来辅助,原理上是一样的。

为了避免每次计算都掰手指头,你我都必须在小学低年级作大量的算术速算练习,直到我们把两位数的加减法变成条件反射而不是累加的结果。从而把更大数字之间的运算分解成一系列条件反射的累加,提高整体运算效率。又比如苏美尔人最早的乘法是连续做加法,一位数的乘法也必须挨个加起来,这和我们小学时学乘法原理的程序是一样的。这个方式足够简单但嫌太慢。后来,学算术的学生就要背乘法表,背会了之后在脑子里建立固定的数字处理程序,只要记住八八六十四这种口诀,就不必再每次计算都作七次加法。这也是信息化,通过建立固定的反射来提高信息的处理效率。

相对论刚提出时,号称全球能完全理解的人不超过十人,现在却成为理工科必修课程,是我们智商提高了吗? - 马前卒的回答
你要说服自己的大脑,“数学工具”这个词绝不是一个比喻,而是客观、准确的描述。铲子、汽车、充气娃娃等有形物体是工具,思考方式也同样是工具,都是人类改造世界能力、理解世界能力的“放大器”。这一点在理智上接受很容易,在直觉上相信比较难。就像大多数人可以在理智上承认电场、磁场也是物质,但真的思考复杂问题的时候,直觉就只承认椅子、汽车这样的东西是物质了。

什么是工具呢?严格来说,人类制造的任何东西都只是附加了“信息”的某种结构。砍木头做梯子,木头是自然界的物质;炼钢造汽车,铁矿石和煤都是地球本来就有的。我们没法凭空“创造”物质,只能把既有的物质赋予人类设计的结构,才能变成实体工具。至于思考工具,只是把这个“结构”直接用思想表现而已。从这个角度讲,思考工具和日常的实体劳动工具完全是一回事。

所以说,人类现在能一枪撂倒大象,不是因为力量增加;人类能迅速理解几十年、上百年前的物理前沿思想,不是因为智商提高,两个事件都完全是工具水平提高的结果。相对几百万年的人类进化史,最近一万年我们的基因没啥明显改变,进步的是工具。

我想说的是,信息时代并不是最近十几年才到来的。整个人类文明史,从捕兽夹到乘法表再到蒸汽机、计算机,这都是“信息化”和“AI化”的发展过程。我们这些年的发展速度很快,但也不过是保持了过去200年、20000年、200000年的AI进步趋势。如果你恐惧AI,就应该记住被历代古人(包括毛泽东)反复强调的一个概念:

寇能往 我亦能往。

最后提醒一下,无论是你想和AI当敌人还是做朋友,眼下它都只是一个辅助工具,不能保证行车的绝对安全。一旦时速开到80以上,神也阻止不了事故发生。奉送一张100公里时速下的障碍墙残骸图,这次我可是和AI精诚合作的……


user avatar   wei-qing-china 网友的相关建议: 
      

首先要明确一个观点,即绝大多数人都是对人工智能的发展是持鼓励与支持态度的,之所以他们提醒人们警惕人工智能,更多的是担心很多人对人工智能的能力没有敬畏之心,对其发展方向没有综合全盘的考虑,只是把人工智能的能力理解成技术的进步,而忽略了人工智能这种能力的社会要素。一方面过于追求表面上的成效,而忽略了人工智能对人类社会发展的影响;另一方面由于并不是所有的国家或个体都有能力或有主动意愿对人工智能持以积极的拥抱和学习态度,长此以往,一旦人工智能的发展突破到一个新的境界,就很容易产生人们常说的数字鸿沟或者说智能鸿沟,其结果是使得一个国家或一个阶层对另一个国家或另一个阶层产生“降维打击”式的竞争优势。

这种现象在前几轮工业革命的时代已经出现过数次,小到个人,大到国家,受到冲击的后果我想大家都已经看得很清楚了。

正因为如此,我们既不可神话人工智能,也不可淡化人工智能,更不可妖魔化人工智能。应该客观公正去理解人类试图掌握的这种新工具的本质特征和发展规律,充分发挥人类发明和利用工具改造自身现状的特质,来为社会的发展和人类的福祉作出贡献。由于人工智能这个新工具的能力太强大了,与过往人类发明与应用的工具不同之处在于,过往的工具代替的是人类的四肢和部份的感知与计算能力,主要取代的是人类的肌肉力;人工智能这个新工具试图取代的是人类的部份认知与决策能力,也就是脑力,不认真对待的话,其直接后果就是会产生智能时代的新型“文盲”个体、团体、甚至是国家。

人工智能技术的发展将会极大地提高人类与机器之间的沟通和连接效率不仅仅是提高人类的脑力能力更是由于这种人与机器连接性的提高而大大强化人类广义上的“四肢”能力。大家知道,人类作为一种碳基生命,其物理与化学结构是很脆弱的,如果借助人工智能使人类能够更有效的利用比人类的物理与化学结构强大与灵活的多的机械工具,那么对于不具备这种能力的人类,其生存压力的变化是可想而知的。

另外,说到警惕,很多人会误解为是提醒大家不要去做这件事,这种理解是危险的。正如古人所言:“知其雄,守其雌”。与其说因为担心某种能力而不去拥有某种能力,倒不如主动理解并拥有这种能新的能力,但同时在哲学与道德层面去把控这种能力的应用。因为现实的情况是,你无法把控别人的行为。那么比较积极主动的方法或许是:你也去拥有这种能力,然后大家在一起协商到底如何更好的使用这种能力。如果你连对新生事物的理解和使用能力都没有,那有什么资格去对这种新生事物进行评判呢?

明确的这个观点,我们可能就能好好的谈一下目前人工智能的状况了。

其实很多名人对于人工智能的警告,很大程度是基于媒体对于人工智能这种能力的神话而产生的担忧。正是因为人工智能将会很强大,注意是个“将会”,还不是现在,目前的这种神话,反而会对人工智能的发展造成不利的影响。那么人工智能这种能力到底是个什么呢?

过去这几年,新技术的词汇层出不穷,令人目不暇接。在全球范围内由于技术的进步引发的新话题也比比皆是,人们好不容易形成的一些对技术的理解,马上就被新的理念所突破。因此越来越多的公司和人们发现,人类其实是开始进入「无人区」,没有一个大思想家、大哲学家或大科学家能够告诉我们未来会怎么样,每个人都在探索。所以人们产生了很多争论,关于人工智能的争论,关于机器智能的争论,关于机器人的争论,关于技术和人类关系的争论等等。

微软CEO萨提亚曾说过,未来没有人引导我们,那么我们可以以史为鉴,看看历史上发生过什么。

最有代表性的就是第一次工业革命到第二次工业革命之间,由蒸汽时代进入电气化时代。「我把这个阶段总结为四种态度和四种结局。当时有很多有影响力的全球性的公司,他们用蒸汽力量代替人的四肢。但当电气出现的时候,绝大多数公司态度是看不起电,因为开始的阶段电的效率并不够高。第一类公司的想法是电力不行,效率低,没有未来,蒸汽力量足够了,一百年之后他们被淘汰了。」

第二类公司放下一些包袱,认为电是新生生物,也有潜在发展的可能性,但是仍然坚信蒸汽机的力量,坚信只要对蒸汽机进行改良一样可以保持竞争力,这些公司也被淘汰掉了。

最可惜是第三类公司,他们已经放下旧的生产力,开始拥抱新的生产力和形成新的生产关系,但是思维方式没有改变。他们认为自己全面拥抱电气化时代,已经产生比蒸汽机时代超高的效率,更低的成本,但是他们还在跟蒸汽机相比,思维方式还是有蒸汽力与电力的区别,这些公司最终也被淘汰掉了。萨提亚在会上提到,我们做了一些粗略的分析,只有不到5%的公司在那个时代完成了转型和飞跃,真正进入了电气化时代。

当时大部分企业对于电气化的观念只是能点多少盏灯,或者生产线能够提高多少效率。只有5%的公司选择彻底放下包袱,忘记什么是电气,什么是蒸汽,而是把它们都当成是工具。这些公司要的就是进入新的时代。这代表更高的效率,更低的成本和更优秀的用户体验和产品品质。

我经常举一个例子,假如说现在我去朋友家里做客,如果朋友跟我说:“你瞧,我们家可先进了,是个电气化家庭。你看我家里这些墙上的插座,能够随时提供电力,你只要把一个插头往上一插,你的灯就可以被点亮。”相信大家会觉着这种思维方式很可笑。但是我们仔细想一想,当我们口口声声言必谈互联网、物联网、人工智能、5G的名词的时候,恰恰是我们还不具备这种能力的时候,跟电气化的初始人们会以家里有电来炫耀的现象是一样。而真正进入电气化时代的标志,是没有人去说“电”这个词,而是专注于“电”能够用来做什么,是开始考虑怎样做更好的电视机、电冰箱、电动汽车。当然我们并不是说不要去专注于当下的这些技术名词,只是要理解到,当我们还在满足于这些名词表象,并以此为骄傲的时侯,其实说明我们离真正拥有这种能力还相去甚远,更不要提具备使用这种能力的能力了。

因此从技术的发展来说,“学以致用”、“造福人类”是技术发展的永恒归宿。

以微软自身的转型经历而言,微软在跟客户的交流中也有思考,是否需要做思维的转变,才有可能真正理解这一轮技术变革是怎么回事。如果我们还抱着老的观念,抱着产生问题时候的观念,我们真能够理解这个伟大的时代将带给我们的辉煌未来吗?

我们是否需要先把我们认为的所有成见都放掉,然后再来看现在的技术到底怎么回事?我们也知道深度学习只是机器学习、人工智能的一部分,我们要把深度学习的包袱也放下,扩展到我们进入的这个时代来思考。

理解时代特点,我们要了解深度学习,了解机器学习,进而了解人类学习特点,但是更重要是什么?我们要号准时代的脉搏,要知道在这个时代要采取什么样的态度和策略,才能够跟上时代的脚步。我们既不要成为时代的弃儿,也不希望成为烈士,我们最希望成为一个先行者。这个时代最大特征就是机器从代替人的四肢开始,已经于无声处开始代替人的大脑,甚至会慢慢代替所有能够出现模型的人类能力。明白这一点我们才可以理解所处的时代。

面对深度学习和人工智能的发展,一种人选择放弃自己,一种人会产生绝对的抗拒心理,不去主动拥抱这种能力,这都是有问题的。因为这种能力确实很强大,你不去拥抱的话,有可能被去拥抱这种能力的人类所淘汰掉了,被他们产生降维打击的能力了,这个其实很危险的。

与其说是机器或者人工智能,或者机器智能会代替人,倒不如说掌握了机器智能人类变成一种超人类,他们会把不具备这种能力的人类所代替掉,或者所降维打击掉。《深度学习》的作者特伦斯的良苦用心是希望我们做一个合格的地球人。为什么不是说作为一个美国人或者中国人?因为地球上的人类都面临这样的挑战,都面临我们如何跟机器智能相处,如何提高我们能力,才能使我们具备更高的能力来应变这个时代的挑战。人工智能带来的这种降维打击还是很强大的,如果我们不认真的应对,去努力学习,并且去积极拥抱这种能力,有可能就真的被降维打击了。

如何理解人工智能?如何入门深度学习?我认为有以下几点:

首先,一定要透过现象看本质,充分理解到这一轮人工智能的进步是以算力和数据的飞速发展作为基础的,其理论在几十年前就已成型。理解到这一点之后首先可以去除神秘化,认识到它的基础与数学、物理、化学、神经科学等密不可分,那么对于想学习入门的朋友们来说与其说一味的紧追人工智能或深度学习的术语,倒不如先从最基础的数学着手,比如用数学的方法实现一下最基本的单层神经网络,比如不用库函数去实现一下Tensor,也就是张量的运算。这时你就会发现,你在读书时代认为很枯燥的标量、向量、矩阵、微积分等等数学理论,会在实际应用中产生出多么有趣而强大的结果。

其次,既然是说“深度学习”,我们就先要理解什么是学习?为什么我们的先哲在两千年前就提出“学而时习之”?学习的能力跟大脑的运作是什么关系?人类所具备的“眼耳鼻舌身”在学习过程中产生的作用?学习过程中神经元的变化和发展?学习的各种理论,诸如行为主义、认知主义、建构主义等等。这些貌似跟人工智能无关的理论,其实才是形成机器学习理论的源动力。因此,深度学习的发展不仅仅要靠数学的进步,不仅仅要靠计算机科学的进步,还要对人类自己的神经、脑神经、传输神经、感知神经的理解,理解人类自己学习的过程和方式,但又不囿于人类的学习方式,能够充分发挥机器的特点,或者形象的比喻为发挥“硅基”学习的特点,可能能够对人工智能的发展探索出超越前人的道路。

如果我们去学了「学会如何学习」的课程就会发现,人类学习的范式也是在不断进步中。这种进步一方面会影响人类自身的学习方法,同时也会对机器学习的发展方向产生影响,而且这两种学习方法也可以互相借鉴。这就谈到另外一个话题:“学以致用”

学习的方法有一个分支,叫做 Problem-Based Learning,就是以问题为导向的学习,以实际解决问题方案的学习。未来是终身学习的时代,不存在大学毕业之后就不学习了。如何终身学习?一定要带着问题去学,这样学得越来越深入,学得越来越有用。人工智能也是一样的,它是一种学习的过程。学习不能为了学而学,一定是问题为导向的。所以如果你去问有实际工程经验的人工智能专家,他们大都会在谈及算法之前问两个基本问题:第一、你要解决什么问题。第二、你有没有与这个问题相应的可供学习的数据。从这种思维方式上,相信大家就能够更好的理解实现人工智能,或更精确地讲实现这一轮的以机器学习或以深度学习为代表的人工智能的前提要素。

在具体实施过程中,要真正产生深度学习能力,我们需要有数据,需要有人才,还要有算法和算力。像微软这样专业公司可能会提供更强大的算法和算力,更多的公司需要在人才培养,数据收集上面下很大功夫,这样才能产生互动的促进作用。数据、人才、算法、算力这四者缺一不可。每一方面在未来都巨大的商机,正是因为我们即将进入智能社会,商机恰恰不是只在智能本身,而是各个方面。

「人们大都倾向于高估他在一年内所能完成的事情,但又容易低估他们坚持十年后能够取得的成就。」大家一定要明白,第一没有专家,第二没有起跑线,第三每天都在重新更新有新知识新理念出现,我们先不要放弃自己,同时把握最基本的对自己的自信和信念,认真学习

因此,人工智能本身并不可怕,也不会威胁到我们,但是,人工智能是未来每个人生存于时代的基本知识,而深度学习作为它的根基,每个人也应该懂一些,如果你想要入门,想要对不确定的未来有所把握,可以来听听我的 Live,时间是 5 月 9 日晚上 8 点,点击这里可以参与收听zhihu.com/lives/1096786


user avatar   mo-deng-zhong-chan 网友的相关建议: 
      

九寨沟地震发生18分钟后,中国地震台网的机器,写了篇新闻稿,写作用时25秒。


稿件用词准确,行文流畅,且地形天气面面俱到,即便专业记者临阵受命,成品也不过如此。


再考虑到25秒写作时间,人类完败。


几年前,机器写作概念刚出现,朋友圈一片调侃。调侃中难掩骄傲:机器怎么能写新闻?


而今,当读到科技、财经或体育类简讯时,我们已很难分辨,报道背后的作者,到底是不是人类。


在今日头条上,一个名叫小明的机器人去年上线。截至今年5月,它已完成5139篇体育类报道,总阅读超1800万,并收获过单篇十万加。


在每篇开头,小明会很老实地写上“机器人写作”字样。如果删掉这句话,它可以完美掩饰AI血统。


当然,小明还不会花式调侃国足,目前仅处于采集数据,填写模板阶段。


然而,就如其他许多行业中,正在成长的人工智能一样,它们一旦出现于赛道,人类终将难以望其项背。


人工智能在混沌中,慢慢睁开双眼,它模仿我们写作,模仿我们说话,并把感官触角,蔓延至更冷门领域。


去年10月,西甲赛场,皇马在主场被意外逼平。比赛结束时,嘘声四起,愤怒的C罗嘟囔着回应,这一幕被摄像机拍下。


全世界都在猜他说了什么。最后,唇语专家解密,C罗在说:“Qué poca calma!”,大意为“能不能安静点!”


然而,这极可能是唇语专家最后的高光时刻。他们的职业突然濒危。


去年春天,开发出阿尔法狗的谷歌DeepMind,开始训练人工智能解读唇语。他们给机器观看了5000小时BBC新闻,然后找来人类专家对决。


测试结果,人类专家完全正确率为12.4%,而AI的完全正确率为46.8%,超过人类3倍,这仅是初步学习的结果。


在中国,相关公司也进行了类似开发。他们给机器看了一万小时新闻联播。因为汉字一字一音等便利,中文读唇更为简单,机器识别准确率已超70%。


这意味着,嘴唇轻动,人工智能便知心意的日子,很快就会到来。事实上,人工智能读唇,在军事情报、公共安全等领域有着广阔应用。


比如,借助已经遍布中国城市的天网系统,人工智能读唇,或将提供更多破案线索。


你说的每一句话,不会消散在时空,而是成为可以回溯的痕迹。


在这样严肃的功用之外,读唇还有更多妙用。


在业界,为影音自动生成字幕的难点在于,AI很难将人声和背景音剥离。但配合上AI读唇后,准确率将大为提高。


我们携带翻译APP行走异国,浏览翻译软件处理的网页,观看自动生成字幕的电影,语言的界限越来越模糊。


远古,神灵为了阻止人类窥伺神国,用语言分割族群,巴比伦塔就此荒颓。


而今,人工智能正在重建巴比伦塔,重建的速度,或许已快过神明。




钱塘江大潮时,有段视频网上走红。


视频中的人们,江边观潮,前一秒还在拍照嬉闹,下一秒就遇浊浪如山,只得尖叫逃跑。


这和我们将要面临的人工智能浪潮何其相似。我们极有可能低估了新时代的力量,以及新时代到来的速度。


过去,AI封存在科幻电影中的未来。阿尔法狗亮相后,AI等候在“不久的将来”。直到生活中的AI痕迹越来越多,我们才明白AI已在“明天”,甚至“今天”。


我们只知大势将至,却不知未来已来。


演唱会开场之际,万人体育馆低语喧嚣;郭德纲尚未出场,小茶馆内杯盘作响;炎热的夏夜,乌云蓄势了整个黄昏。人人皆等雨来,只有少数人,看到云中缭绕的电光。


我们正处于一个躁动的调试时刻,人工智能正在调试自己的神魂和硬件,以待全面登场。


在谷歌、在亚马逊、在阿里和百度、在各领域大大小小公司内,无数工程师正在从不同维度,完善人工智能的神魂。


他们的做法,其实和传说中苗疆养蛊相似。


养蛊人寻多种毒虫,投入陶罐,择日深埋土下,最后罐中胜者成圣,以血肉定期供养。


对AI而言,它所需打败的对手,便是各类训练用AI,而它所放养的陶罐,则是整个互联网。


AI游走在巨大陶罐内,观察人类,并日夜不息地迭代进化。


对于那些拥有海量用户的互联网巨头而言,我们正充当着他们训练AI的人肉样本。


医疗AI正在识别龙飞凤舞的病历报告,驾驶AI正在模拟复杂多变的突发状况。


写作AI早已看完了金庸全集,并已经能流利写出郭靖和杨康的打斗。当然,它尚需学习人类的文学喜好,明白哪类句子在感觉上更好。


牛津的学者,给出AI神魂健全时限:十年之内,AI将变得足够聪明,并消灭40%以上的职业。


如果说神魂健全的时间线尚显模糊,那么从硬件上判断,AI全面降临的速度可能更快。


未来学家Kurzweil认为,当我们用1000美元购买的电脑产品,能达到人脑的计算速度时,人工智能时代将全面到来。


1985年时,1000美元能买到人脑计算速度的万亿分之一,1995年变成了十亿分之一,2005年是百万分之一,而2015年已经是千分之一了。


按此速度,2025年,个人电脑便可和人脑运算速度匹敌。


持类似观点的还有软银的孙正义。


孙正义认为,人脑中有300亿个神经元,当芯片的晶体管数量超过300亿时,新时代即将到来。


虽然摩尔定律已垂垂老矣,但芯片上的晶体管数量仍在增加。


孙正义说,20年前,他判断超越之年为2018年,几年前,他又重新估算了一下,依旧是2018年。


为此,软银成立了一个规模达到1000亿美元的软银愿景基金,规模超过全球所有风险投资总和。此前,全球风投投资总和为650亿美元。


在7月29日软银世界大会上,孙正义说,“我非常激动,真的感觉连睡觉都是在浪费时间。




并非所有人都对未来满怀期待。


Facebook的项目经理马丁内斯,对人工智能主导的未来深度悲哀。


他认为,接下来30年内,一半的人类没有工作,大革命即将发生。


他为此辞职,带着猎枪,隐居在西雅图北部的森林。


他的一些硅谷同行们,则与之观点相反。这些高管热衷于健身和服用营养药物,以保证能活到超人工智能诞生之日。


在他们眼中,人工智能将带来永生。


毁灭和永生,几乎是人类对人工智能两大终极想象。即便这些太过遥远,仅从工具角度,人工智能依然有着双面性。


比如人工智能解读唇语,如果用在监控领域,那么我们或将迎来一个比《1984》更窒息的世界。


无论结局是忧是喜,我们都无力阻挡其发生。新时代的洪流已至,你我皆被裹挟其中。


我们能做的,只是在洪流中,尽量抓住一切带有想象和创造元素的稻草,尽量逃避被淹没的命运。


从今日起,尽量让自己的工作更多创造性内容,尽量掌握一门以想象力为核心的技能,尽量观察信息的风口,并不断迭代自己的认知储备。


旧职业的消亡,只是开始讯号,在新时代的巨震中,每个人都将被重新判断价值。


九寨沟地震时,风景区正上演汶川大地震情景剧。大地震颤之际,许多游客尚以为是演出特效。巨变总在猝不及防时到来。


同样,我们已身在大时代地震的震中,当我们以为人工智能不过是流行演出时,巨变或许即将发生。



有趣文章很多

欢迎移步微信公众号

“摩登中产”(ID:modernstory)


user avatar   maomaobear 网友的相关建议: 
      

人工智能很好。

但是资本主义+人工智能对非资本家来说不一定好……

人工智能现在只是雏形,就已经能够替代掉很多劳动岗位了。你现在打10086,10010基本都是人工智能客服。

对应的就是一些门槛低的客服mm得另外找工作了。

无人驾驶廉价方案落地

出租车司机、货车司机需求就没有了。

机器视觉+机械手,生产线上的普工能少一大半。

我以前描述过,未来是无人矿场,无人工厂,无人运输,无人物流。

你需要一辆车,网上点一下付款,从铁矿石到车,不需要工人。

劳动岗位变得很少。

如果是社会主义分配,资源是大家的,大家付出很少的劳动就可以满足很好的物质水平(大房子,食品丰富,娱乐丰富)

但是,搞资本主义,利益是生产资料所有者的。

转移支付前,贫富分化极端化。

百万分之一的资本家。

万分之一的政府工作人员。

千分之一的劳动者和服务者。

其他人口都只能吃福利,或者故意制造无用工作岗位,维持基本的生存。

革命都没法革命。

只要资本家的几百个子女就能控制百万无人机无人坦克大军。

地球上所有的资源,用来生产物质财富,也只需要很少的人口。人类还没有开发其他星球的能力,这就很可怕了。


user avatar   lu-luce 网友的相关建议: 
      

因为人工智能的理论已经成熟了。

基本上现在人工智能的水平其实是和电脑能模拟的神经元相当的。比方说,线虫是神经元是300个。你找几台计算机,模拟出300个神经元,之后训练一下。你会发现,这个算法就拥有相当于一个线虫的智力。比方说,果蝇幼虫大脑有15,000个神经元。你找几台计算机,模拟出15,000个神经元,之后训练一下。这个算法基本上智力就相当于一个果蝇幼虫。甚至微软已经靠砸钱成功构建出了一只青蛙所拥有的神经元。智力和青蛙一样。能准确识别飞舞的昆虫。。

基本上,造一个人类大脑,基本就是取决于电力供应和计算能力。说人话就是,限制人工智能的就是显卡功耗和价格。要是NVIDIA能做出来功耗几毫安,只有米粒大小的显卡。超级智能机器人分分钟走遍大街小巷。




        

相关话题

  靠 AI 来实行计划经济可行吗? 
  AlphaFold 震撼发布 98.5% 的人类蛋白结构预测结果,有哪些重大突破?它们将带来哪些应用? 
  为什么风力发电机的扇叶那么窄?会不会漏掉很多原本可以产生电力的风? 
  如何评价DeepMind新推出的用于训练通用智能体的XLand? 
  电气电子工程师学会(IEEE)禁止华为参与学术编辑和审稿,可能会有什么影响? 
  如何看待上海交大建成全国最强超算,碾压哈佛、剑桥等名校? 
  有哪些听起来高大上实际上很普通的东西? 
  如何用140 字以内讲清楚什么是方舟编译器? 
  推荐系统有什么危害? 
  如何看待李国杰院士在科学网发文称,国内 AI 研究「顶不了天、落不了地」,该想想了? 

前一个讨论
朋友圈里常发什么样的文字图片的人比较讨厌?
下一个讨论
俄罗斯的留学圈子和环境是怎样的?





© 2024-12-26 - tinynew.org. All Rights Reserved.
© 2024-12-26 - tinynew.org. 保留所有权利