神经网络黑箱的意思是我们知其然,不知其所以然,相关理论比较缺乏。别看神经网络相关论文汗牛充栋,但是大部分类似于technical report,告诉你我这么做效果不错,具体原因不知道,只能“guess”,所以很容易被打脸。
这一篇文章讲得挺好的,他用光学类别深度学习,非常形象。
从结构来看,无论是深度学习还是镜头,都是一层一层叠起来的,如下图所示。
从设计流程来看,当要设计一个镜头的时候,往往以一个已知的镜头组合作为基础,这个已知的镜头组合一般都以发明这个镜头组合的人命名,类似于深度学习的里面的LeNet、AlexNet。然后你跑个仿真,看看这个基础镜头组合的表现和你需要达到的要求存在哪些差距,在合适的地方插入合适的组件来磨平差距。接着,你用一个数值优化器来调上述镜头组合的参数,以发挥上述镜头组合最大的功效。这个类似于深度学习里面的优化和调超参过程。
从系统组成部件来看,光学组件有的起到反射作用,有的起到衍射作用,有的起到折射作用,有的起到散射作用,有的起到相位校正作用等等。深度学习组件(conv、pool、relu等等)有的起到学习空间相关作用,有的起到防止过拟合作用,有的起到增加非线性作用等等。
从发展历史来看,伽利略时代虽然没有光学理论,类似于现在的深度学习,但是同样造出来了人类历史上第一架天文望远镜,推动了天文学的发展。现在深度学习也理论不足,但是极大地推动了人工智能的发展。
从结果看,在几百年里,经过科学家的不懈努力,光学终于形成了一整套比较完备的体系,使得现在的光学工程师在设计镜头的时候有迹可循,而不是像几百年前的伽利略一样靠经验设计。这一套完备的体系将光学分层了,如下图所示,这样的分层使得光学分工明确,每个人研究各自层的东西,一起推动光学发展。上面的层是下面层的抽象,越往上能解释越复杂的现象,见下图所示,而相比而言深度学习里面的很多现象还得不到较好的解释。
光学也经历过黑箱时代,深度学习现在就是黑箱时代,理论的前进一般会晚于实践,但是假以时日,理论肯定会完备起来,形成类似于当前光学那样的层层抽象的学术体系,只不过这个过程需要所有从业者一起的努力,和一定时间的积淀,也许几十年,也许上百年。
说神经网络是个黑箱,大致有两层意思。一个是说,我们不能刻画网络具体是在做什么(比如在每一层提取什么样的特征)。另一个是说,我们不知道它为什么在做这些,为什么会有效。回答前一个问题就是研究神经网络的“可解释性”。不过在俺看来后者更重要,更本质。
有些人似乎认为,这两个问题都不重要。一种思潮是说只要好用就行,管它为什么工作、怎么工作的。还有一种思潮是认为这两个问题都是根本回答不了的。俺以为,这两种观点都是短视的。
深度学习显然是做对了something, 在某个角度触碰到了真理,但如果不打开黑箱,我们无法知道它到底做对了什么,真理是什么。在牛顿之前,大家都见到了苹果落地。但在当时人们的视角中他们一定认为,苹果落地不是很自然的吗,需要解释、需要知道为什么吗?当时的人们也会认为解释这种现象简直无从下手。跟今天的深度学习有点像吧?但是当牛顿告诉我们为什么苹果会落地之后,世界从此就不一样了。
今天的机器学习在某种意义上好像物理学。深度学习目前就好比实验物理,有很多实验观察,但没有理论能够解释。也跟物理学的发展一样,实验总是走在前面。没有Michelson/Morley 的实验观察,也就没有爱因斯坦的狭义相对论。
如果感兴趣深度学习的科研,你可以选择成为下一个 Michelson/Morley, 也可以选择成为下一个爱因斯坦。当然,大多数人都是坐在树下吃那些天经地义要掉下来的苹果,呵呵。
本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度,google,bing,sogou 等
© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有