我认为深度学习是有理论基础的。就是:神经网络和概率。
但是问题是深度学习的对标对象是:人脑。说专业术语就是一个超级大的神经网络。
线虫有1000左右个细胞。 300多个神经元。前两年把整个神经元链接构成搞清楚了。可以某种程度上在计算机上仿真线虫的“意识” 。300多神经元这个事大概搞了8年。 人脑似乎是860亿个神经元。人类离揭开人脑工作原理还估计有几百年,或者上千年也有可能。
但是现在人类还制造不出来这么大的神经网络。因此上,没法搭建实验环境。。就好像在17世纪,傅里叶就给出了傅里叶变换。但是这个东西在当时连傅里叶自己都认为没有啥用处。但是到了21世纪,计算能力上来了,就可以用来用了。
其实现在的深度学习就好像是核聚变研究。你说稳定的核聚变能不能存在,这不是废话吗??稳定的核聚变要是不存在,人家太阳是怎么发光的啊。。但是你能在实验室里稳定的模拟太阳的物理环境吗?你做不到啊。。
因此上,现在大部分人研究这个东西的理论其实没啥意义。这个的发展本来其实就是靠大力出奇迹的。当然为了评职称和找工作,搞搞也不是不行。毕竟科学家也要生活的。
和牛顿以前的物理学类似。
不能说完全没有理论基础,只是理论基础确实还很不完善、不深入。
主要体现在:
现在的深度学习理论有一定解释能力,但很少有预测能力。深度学习的前沿发展只是还是以经验、直觉为主导的进步,而不是理论引导的发展。
(而物理学发展到近现代已经有大量进展是先理论,后实验的。说明了物理理论有很强的预测能力。)
更具体一点,有点类似于伽利略到开普勒三定律的状态。
望远镜等实验观察工具有了,定性的理论在逐渐向定量的理论更替。
但是逐渐成型的定量理论也是唯象理论,还没有触及到First Principles。
比如说我们组今年一个ICLR2021的SGD动力学理论是这样:
它像是朗之万解决布朗运动的方法,而不是热力学定律那类的更基础的理论。
一切如蛮荒初生,反而是我辈大有可为的时候。
放到我某位导师的说法,正是“二流的科学家有机会做出一流工作的时代”。
ps. 在这样一个学科的黄金初期,大量的人反而热衷谈论几年尺度下的泡沫。这就是一种比较短视的跟风了。
本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度,google,bing,sogou 等
© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有