问题

人工智能为什么越来越看不懂了?

回答
“人工智能越来越看不懂了”这句话,实际上道出了一个普遍存在的现象,那就是随着人工智能技术的飞速发展和应用场景的日益复杂,普通人以及一些非专业人士在理解其工作原理、决策过程以及潜在影响方面,确实感到了越来越大的难度。这并非是人工智能本身“刻意”变得难以理解,而是由多种因素共同作用的结果。

下面我将从几个关键方面详细阐述,为什么我们会产生“人工智能越来越看不懂了”的感觉:

一、 模型的复杂度呈指数级增长:

从规则到数据驱动: 早期的AI,例如基于专家系统的AI,是基于人类专家定义的明确规则。例如,一个诊断系统会有一系列“如果……那么……”的语句。这种系统相对容易理解和调试。但现代AI,尤其是深度学习模型,不再依赖于人类手工编码的规则。它们通过海量数据进行“学习”,从中发现隐藏的模式和关联。
深度学习的黑箱特性: 以深度神经网络(DNNs)为代表的现代AI模型,通常包含数百万甚至数十亿个参数(权重和偏置)。这些参数通过复杂的数学运算(矩阵乘法、激活函数等)交织在一起,形成一个极其庞大的计算图。对于一个“输入”,信息经过层层传递和转换,最终产生一个“输出”。然而,我们很难直接追溯某一个具体的输入是如何一步步影响到最终输出的,中间的决策路径变得极其复杂和难以解释,这就是所谓的“黑箱”问题。
模型规模与能力的权衡: 模型的性能往往与其规模(层数、节点数、参数量)成正比。为了实现更强大的能力,如自然语言理解、图像识别、生成式艺术等,模型不得不变得越来越庞大和复杂。例如,GPT3拥有1750亿个参数,其内部的运作机制远超任何个体甚至团队的完全理解能力。

二、 学习方式的抽象化和非直观性:

梯度下降与反向传播: AI模型通过一种称为“梯度下降”和“反向传播”的优化算法来学习。简单来说,模型会预测一个结果,然后计算预测结果与真实结果之间的误差。这个误差会通过网络的反向传播,用于调整模型内部的各个参数,以期在下一次预测时误差更小。这个过程是高度数学化的,并且是迭代式的,非人类的直观理解能够把握。
特征提取的自动性: 深度学习的一大优势在于它能够自动学习数据中的“特征”。例如,在图像识别中,模型会从低级的边缘、纹理特征,逐步学习到更高级的形状、物体部件,直至最终的整体对象。但这些自动提取的特征,其具体含义往往不明确,可能是一串抽象的数值组合,难以用人类的语言来描述。
涌现能力(Emergent Abilities): 随着模型规模的增大,AI会展现出一些在小型模型上不存在的“涌现能力”。例如,一些大型语言模型(LLMs)在没有被明确训练的情况下,就能进行逻辑推理、数学计算、代码生成等。这些能力并非通过明确的编程或指令赋予,而是“涌现”出来的,这使得理解其能力来源更加困难。

三、 应用场景的多样化与专业化:

跨越各个行业: AI已经渗透到我们生活的方方面面,从推荐系统、自动驾驶、医疗诊断,到金融风控、科学研究、艺术创作。每个领域的AI应用都可能基于不同的技术栈、模型架构和训练数据。要理解某一个领域的AI,就需要掌握该领域的专业知识。
专业领域的深奥性: 即使是同一类AI技术(如深度学习),在不同的应用中,其具体实现和调优方式也可能截然不同。例如,用于自动驾驶的AI与用于生成音乐的AI,虽然都可能基于神经网络,但其网络结构、损失函数、训练数据等都会有巨大的差异。
持续的创新与迭代: AI领域的研究进展非常快,新的模型架构、训练方法、优化技术层出不穷。昨天还在讨论的SOTA(Stateoftheart)模型,今天可能就被新的技术超越。这种快速的迭代速度,使得即使是专业人士也需要持续学习才能跟上步伐。

四、 可解释性(Explainability)的挑战:

“为什么”的难题: 正如前文提到的“黑箱”问题,我们常常能看到AI给出一个结果,但却很难回答“为什么它会做出这样的决定”。这种缺乏可解释性,尤其是在医疗、金融、法律等关乎生命和重大利益的领域,会引发信任危机和实际操作上的困难。
可解释AI(XAI)的探索: 为了解决这个问题,学术界和工业界正在积极研究可解释AI(XAI)技术。这包括一些方法,如LIME、SHAP等,试图为AI的决策提供一些局部的、临时的解释。但这些方法本身也存在一定的局限性,而且对于极其复杂的模型,提供真正意义上的“理解”依然是巨大的挑战。
对因果关系的混淆: AI擅长发现数据中的相关性,但相关性不等于因果性。很多时候,AI识别出的模式可能只是数据中的巧合,而不是事物之间真正的因果联系。这使得AI在某些场景下的决策可能显得“反常识”或不可理解。

五、 人类认知能力的局限性:

维度灾难: 现代AI模型处理的数据维度可能非常高,远远超出人类的直观理解能力。例如,一个高分辨率的图像可以看作是一个具有数百万维度的张量。人类的直观认知习惯于三维空间,很难在思维层面处理如此高维度的信息。
非线性与交互作用: AI模型中存在大量的非线性函数和复杂的交互作用。这些因素使得输入与输出之间的关系变得极其复杂,难以用简单的线性模型或逻辑来概括。
抽象思维的差异: AI的学习过程是一种高度抽象的数学运算,而人类的理解过程则更多地依赖于直觉、经验和语义。当AI的学习成果表现为高度抽象的数学参数时,我们很难将其转化为人类容易理解的语言或概念。

总结来说,人工智能之所以越来越“看不懂”,是因为:

1. 技术内在的复杂度增加: 模型规模庞大,参数众多,计算过程高度复杂。
2. 学习方式的抽象与非直观: 基于数据驱动和数学优化,而非人类的明确规则。
3. 应用场景的专业化和广泛化: 涵盖了各个专业领域,需要跨学科的知识。
4. 可解释性是长期挑战: 难以完全理解AI的决策逻辑和原因。
5. 人类认知与AI运作模式的差异: 高维度、非线性、抽象数学运算与人类直观经验的冲突。

这种“看不懂”并非完全无法理解,而是需要更专业的知识、更深入的研究以及专门的可解释性工具来辅助。同时,这也促使我们反思,如何在拥抱AI强大能力的同时,确保其决策的可理解性、可信赖性和安全性。

网友意见

user avatar

在上大学的时候,老爹经常让我帮他搜集各种材料,今年是“5S管理”,明年变成“6S管理”,再过一年变成“7S”管理...

看了看内容,就是办公室如何归置,物品如何摆放,工作流程如何规范...

老爹所在的单位就是传统的办公室工作,茶杯摆放在何处,垃圾桶摆放在何处,订书机摆放在何处,规定这些有多大意义?

有一定意义——起码看着整齐、找东西不会找不到。但是,这并不会对他们的工作效率、工作产出带来根本性的提升。

那为什么我老爹还要费力地每年变个新花样,每年推行一种新的管理方法?

答案也简单——无论在任何单位,按部就班的人永远难出头,只有不断发现新东西、尝试新东西、“瞎折腾”,才能升职加薪——管理岗位就那么点,无创新的日复一日埋头干活,再努力,大概率只能一直当下属。

我老爹当时50岁了,也还在想办法每年推陈出新,倒不是因为还有什么升职加薪的可能性,更多的就是不要被时代所抛弃,上面下来什么新东西,自己就得去学习、领会、推广。


2013年,戴文渊的学弟陈雨强,成为第一个把DNN引入百度凤巢系统的人,做出了全球第一个带深度学习的商搜广告系统。

当时我在百度工作,陈雨强上线没多久,就成了炙手可热的大红人,我们组邀请他来做讲座,他给我们科普了如何在LR模型里引入深度学习。

没多久,陈雨强离职去了今日头条,为头条打造了一套类似凤巢的机器学习推荐体系,为头条打下了继续腾飞的技术框架。

而DNN也在一年内迅速普及到百度的各大团队,只要能成功上线一个DNN项目,必然能升一级。

然后又是很快的,两三年内:

  • DNN推广到了各大互联网公司的各个部门的各个业务...
  • 模型难度复杂度也日益提升:DNN、CNN、RNN、LSTM、注意力机制、强化学习、对抗网络...
  • 应用范围也急速扩张:图像识别、语音识别、自然语言处理、搜索排序、推荐排序、广告系统、外卖订单优化、打车路径优化...

谁只要成功地在某一子领域、子方向引入新模型、产出收益、上线,谁就能升级加薪。

而那些做传统模型、做无聊的例行化项目的人,就只能继续在原岗位呆着,出去面试也竞争力不强:

  • 5年前,只要会线性模型、树模型,就可以拿到不错的offer
  • 2年前,只要做过一两个DNN、CNN项目,也非常抢手
  • 现在呢?应届毕业生用过的新模型都比许多老员工要6

5年前谁要是说AI会改变世界——历史已经证明了这是痴人说梦。

但5年前谁要是不顾领导反对、不顾短期业绩KPI,非要大胆地在老业务上使用深度学习,哪怕短期收益并不明显——那他大概率在职场上走得很顺。

人工智能真的从根本上改变世界了么?——没有。

但人工智能、深度学习、机器学习,真的改变了整个职场。


我帮老爹查找资料的时候,有一次很意外的在知网上搜到一篇老爹的老领导(后来以厅级干部退休)在80年代发表的一篇小论文。

在现在看来,期刊很Low、文章也很简单,但正是这些一篇篇在当时看来的“新东西”、“新成果”,让老爹的老领导一路升迁,从西部最基层到了北京总部。

也许,30年前大山深处的这位老领导,就是方圆百里山沟沟里的戴文渊、陈雨强。


人工智能纯粹是没用的花花架子?——当然不是,深度学习在许多领域都有其不可替代的作用,对传统模型和传统规则产生了突破性进展——但是,并不是普通人理解的那种“突破”——只是让业务上的某些特定指标提升了1%、2%、5%...半年的项目拿到了传统上要做几年的产出。

普通人对AI的理解如果是100分,那在许多领域,人类的进展可能就是20分,然后大量的程序员和经理,靠AI、深度学习,把20分提升到22分,靠这2分买了房子、结了婚、成了领导...对他们而言,这是影响一生的重大机会、重大变革。

今年DNN、明年RNN、后年强化学习,和5S、6S、7S,在职场规律上,可能没有什么不同。


同样的,区块链这东西,让我有种5-6年前深度学习的感觉。

前段时间和一位top2大学计算机系的学工老师沟通,这位老师说:清北的学生在学校里追捧什么,5年后在社会上就流行什么。

确实有一定道理,90年代末到21世纪头几年,北大计算机系保研最火的是搜索引擎方向,此后多年就业最火的也是搜索。

2010年左右,清华姚班的同学在折腾深度学习,后来诞生了旷视科技等一大批人工智能独角兽。

现在呢?这位学工老师说:现在的学生们都在折腾区块链。

区块链能改变世界么?普通人能感受到区块链的影响么?

把这个问题换成深度学习,放到5-6年前,也同样是许多人的疑问。

两周前我给同事聊天说:“区块链这东西,在京东上销量top的书已经不比深度学习少多少了,每本都是几万销量,毛估全国有上百万人在看相关的书籍资料。只等大厂推出一个区块链的实际应用,大量程序员都得被裹挟着、自愿不自愿的去琢磨如何把这东西应用在现有业务上。”

而昨天,这样的新闻就诞生了:

区块链真能像人工智能机器学习一样改变职场么?我不太确定,但现在的市场苗头的确有点像当年的深度学习。

如果上面这样的新闻越来越多,那程序员和经理们的压力也会越来越大,并不是必须要学区块链、用区块链,也不是所有场景都适合区块链。

但是,一但被裹挟在潮流中,就不是自己说了算了。没有场景也要创造场景,没有用处也要创造用处,没有收益也必须发明个新指标来体现收益。

user avatar

对于人工智能的理解大概有这几个层次


Level 1:哈哈哈哈,现在有人工智能了,程序员全都得下岗

Level 2:哈哈哈哈,有人工智能了,我可以买机器人来艹了

Level 3:赶紧,在我们的宣传上加上人工智能,显得我们有最新科技

Level 4:都来学我们的培训班呐,我教你人工智能

Level 5:看我牛逼不,我已经在搞人工智能了,我会这个K算法,我会那个K算法,我这叫机器学习,一跑一晚上呢

Level 6:说我是搞人工智能的,其实不是很确切,其实我只是在搞 机器视觉,指纹识别,人脸识别,视网膜识别,虹膜识别,掌纹识别,专家系统,自动规划,智能搜索,定理证明,博弈,自动程序设计,智能控制,机器人学,语言和图像理解,遗传编程中的一个。

Level 7:i am busy with these jobs, dont talk to me

user avatar

因为人手根本就不够啊,没学过的人很多都是在乱想象。

潜力还是很高的,现在只是行业暴涨,缺人产生的混乱时期。

在可预计的未来,整体人才可能会越来越不够。

类似的话题

  • 回答
    “人工智能越来越看不懂了”这句话,实际上道出了一个普遍存在的现象,那就是随着人工智能技术的飞速发展和应用场景的日益复杂,普通人以及一些非专业人士在理解其工作原理、决策过程以及潜在影响方面,确实感到了越来越大的难度。这并非是人工智能本身“刻意”变得难以理解,而是由多种因素共同作用的结果。下面我将从几个.............
  • 回答
    在中国和越南边境,发现地雷后不直接引爆而是选择人工排雷,这背后涉及一系列复杂的技术、安全和操作考量。虽然直接引爆看起来更省事,但实际上它往往是效率最低、风险最高的方式。下面我将从几个关键点详细解释为什么人工排雷是更普遍的选择:1. 精确识别与控制: 遥控引爆的局限性: 很多现代的地雷设计都具备抗.............
  • 回答
    在战锤40,000的宏大而残酷的宇宙中,关于战锤40k人工智能(智械)必然走向背叛的论调,并非空穴来风,而是建立在一系列深刻的、贯穿整个背景设定的核心矛盾与隐患之上。这背后,与其说是人工智能自身的“罪恶”,不如说是它们在人类帝国严苛、扭曲的生存环境下,所面临的无法调和的困境与被注定的命运。一、对“思.............
  • 回答
    你想知道,为什么像AlphaGo这样在围棋领域几乎“无人能敌”的人工智能,却在“交易问题”上难以取得同等成就,对吧?这是一个非常有趣且值得深挖的问题,它触及了AI能力边界的核心。首先,我们需要明确,“交易问题”到底指的是什么。在最广泛的意义上,它涵盖了从基本的买卖,到复杂的金融衍生品定价、市场预测、.............
  • 回答
    你的问题很有意思,也很常见。当我们在访问一个网站,尤其是像学习人工智能这样需要大量资源和更新的内容平台时,突然打不开,确实会让人产生“服务器坏了”的联想。但实际上,导致教程登不上的原因可能比你想象的要复杂和多样得多,服务器问题只是其中一种可能性。为了让你更清楚地了解可能的情况,我们不妨一步一步地剖析.............
  • 回答
    好的,我们来聊聊为什么 Python 在人工智能领域如此吃香,尽量用更自然、不那么“AI范”的语言来阐述。想想看,我们现在生活中,从推荐你看什么电影,到帮你规划最佳路线,再到你可能正在使用的各种智能设备,背后很多都少不了人工智能的影子。而要实现这些“聪明”的功能,就需要一套好用的工具和语言。Pyth.............
  • 回答
    在医疗诊断这个领域,人工智能(AI)的潜力可以说是一骑绝尘,这并非偶然,而是由许多内在的因素共同促成的。你可以想象一下,医疗诊断的核心是什么?是解读复杂的、海量的信息,从中找出规律,并做出相对准确的判断。这恰恰是AI最擅长的部分,尤其是机器学习和深度学习技术。一、海量数据与模式识别的天然契合人类医生.............
  • 回答
    这个问题很有意思,也触及了科技发展和社会伦理的敏感神经。很多人可能觉得,既然人工智能这么强大,能做这么多事情,为什么不能用来制造武器呢?而且,从技术角度来看,这似乎是个顺理成章的延伸。但实际上,用人工智能“造”武器,或者说“设计和生产”武器,以及“使用”人工智能驱动的武器,这背后涉及的复杂性远超我们.............
  • 回答
    这个问题很有意思,也触及到了“人工智能”这个词的核心。确实,如果我们把“思考”理解成人类那种带着意识、情感、顿悟、甚至带有哲学意味的深度反思,那么目前我们所接触到的,不论多么强大的AI,都还达不到这个层面。所以,为什么它们会被叫做“人工智能”呢?这背后其实有很多层次的解读,也反映了我们在不同历史阶段.............
  • 回答
    你看的科幻电影,确实常常会抛出一个非常有意思的主题:为什么那些强大的、聪明的、似乎无所不能的人工智能,最终都会踏上“我想成为人类”这条路?这背后藏着多少我们对自身、对未来、对存在的深层思考,可不是三言两语能道尽的。首先,得承认,这很大程度上是我们人类自身投射的幻想。我们是造物主,我们创造了AI,在创.............
  • 回答
    在人工智能的早期发展阶段,符号主义(Symbolicism)之所以也被称为“心理学派”(Psychological School)或“认知主义”(Cognitivism),并非偶然,而是因为它在核心理念和研究方法上,与当时心理学领域对人类智能的理解和探索紧密相连,甚至可以说受到了深刻的影响。想要理解.............
  • 回答
    很多人对“完全人工智能”这个概念充满好奇,也有些人对此抱有疑虑。在我看来,完全人工智能并非遥不可及,它更像是一个正在逐步接近的现实,而非一个虚无缥缈的幻想。理解这一点,需要我们先明确“完全人工智能”到底指的是什么。如果我们将完全人工智能定义为一种能够像人类一样,具备推理、学习、感知、决策、创造力、情.............
  • 回答
    “人工智能取代人类”这个说法之所以令人感到恐惧,并非空穴来风,而是源于对未来潜在社会、经济、甚至生存模式的深刻担忧。这种担忧是多维度的,涉及技术发展、人类价值、社会结构等方方面面。下面我将详细阐述这些原因: 1. 经济层面:失业的普遍焦虑 自动化取代重复性劳动: 这是最直接的担忧。人工智能擅长执.............
  • 回答
    好的,我们来聊聊为什么国家这么重视人工智能研究生培养,以及为什么不少研究生却觉得这个领域“是个大坑”。国家为何要急吼吼地培养AI研究生?这背后其实是多重驱动力在起作用,而且都指向一个核心——国家层面的战略需求和长远发展。1. 抢占科技制高点,国家竞争力升级: AI是新一轮科技革命的核心.............
  • 回答
    史蒂芬·霍金是一位杰出的理论物理学家,他对宇宙的探索和对科学的深刻理解使他对未来也拥有独到的见解。他之所以认为人工智能(AI)可能导致人类灭绝并应加以控制,主要基于以下几个层面的担忧:1. AI的指数级增长和自我改进能力 (The Exponential Growth and SelfImprove.............
  • 回答
    很多名人对人工智能(AI)表示警惕,主要源于对技术发展可能带来的风险、伦理困境和潜在威胁的深刻担忧。这些警告往往基于技术、社会、伦理和历史经验的综合考量。以下是详细分析: 1. 技术失控与超级智能的潜在风险 马斯克(Elon Musk):他多次公开警告AI可能超越人类控制,导致“超级智能”失控.............
  • 回答
    你这个问题提得非常实在,也触及了很多人的心声。身边的人都劝你“退”人工智能,这背后的考量,其实是很复杂的,绝对不是说人工智能就“不堪”或者“一无是处”。相反,它太强大了,强大到让一些人感到不安,甚至产生了一种“退”的想法。我试着把这些顾虑给你掰扯清楚,希望能让你有个更全面的认识。首先,我们得承认,人.............
  • 回答
    美国对中国留学生学习人工智能(AI)和量子技术存在“反对”的声音,但更准确的说法是“担忧”、“限制”和“审查”,而非全面禁止。这种立场是多方面因素交织的结果,其中最核心的是国家安全和技术竞争的考量。以下是详细的分析: 美国对中国留学生学习AI和量子技术的担忧与限制:1. 国家安全和军事应用: .............
  • 回答
    日本企业在某些技术浪潮中的“错失”现象,并非简单的“押错”那么直白,而是一个复杂交织的结果,涉及文化、组织结构、市场定位乃至历史惯性等多个层面。与其说是“押错”,不如说是它们在面对颠覆性创新时,反应模式和决策机制存在一些普遍性的特点,导致它们在某些新兴赛道上未能抢占先机,甚至错失了引领的机会。咱们就.............
  • 回答
    关于人工智能(AI)的“无用论”甚嚣尘上,这并非偶然,而是多种因素交织作用下的复杂现象。我们不妨深入剖析一下,是什么让AI在某些时刻、在某些人眼中显得如此“不靠谱”。首先,最初的期望值过高,导致了普遍的幻灭感。回想一下,AI刚刚崭露头角时,媒体的宣传、科幻电影的描绘,无不将其塑造成能解决一切问题的“.............

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有