因为从approximation error(拟合误差)的角度,无论是实验结果来看,还是从理论分析来看,大部分情况下“深”都比“宽”更有效。
理论层面的话,分享一篇我比较喜欢的paper里的结果(Why Deep Neural Networks for Function Approximation?,ICLR 2017),作者是UIUC的Shiyu Liang和R. Srikant。
简单来说,这篇文章证明了,如果想要达到 的拟合误差(approximation error),深度为常数(与 无关)的神经网络需要 个神经元,也就是说,shallow neural network的神经元数量随着精度( )的上升多项式增长。然而,深度为 的神经网络只需要 个神经元,也就是说,deep neural network的神经元数量随着精度的上升对数增长。换言之,想要达到同样的拟合误差,更深的神经网络需要的神经元数量远小于层数少的神经网络。
歪个楼,深度学习的教材里面一般都会提到这个定理。
在一百年之前,数学家已经有一个类似的结论,其实用多项式就足够逼近闭区间上面的任意连续函数了。
本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度,google,bing,sogou 等
© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有