百科问答小站 logo
百科问答小站 font logo



一般来说,三层神经网络可以逼近任何一个非线性函数,为什么还需要深度神经网络? 第1页

  

user avatar   shi-guan-ya 网友的相关建议: 
      

因为从approximation error(拟合误差)的角度,无论是实验结果来看,还是从理论分析来看,大部分情况下“深”都比“宽”更有效。

理论层面的话,分享一篇我比较喜欢的paper里的结果(Why Deep Neural Networks for Function Approximation?,ICLR 2017),作者是UIUC的Shiyu Liang和R. Srikant。

简单来说,这篇文章证明了,如果想要达到 的拟合误差(approximation error),深度为常数(与 无关)的神经网络需要 个神经元,也就是说,shallow neural network的神经元数量随着精度( )的上升多项式增长。然而,深度为 的神经网络只需要 个神经元,也就是说,deep neural network的神经元数量随着精度的上升对数增长。换言之,想要达到同样的拟合误差,更深的神经网络需要的神经元数量远小于层数少的神经网络。


user avatar   zr9558 网友的相关建议: 
      

歪个楼,深度学习的教材里面一般都会提到这个定理。

Universal Approximation Theorem(1989)

Stone-Weierstrass Theorem(1885)

在一百年之前,数学家已经有一个类似的结论,其实用多项式就足够逼近闭区间上面的任意连续函数了。




  

相关话题

  一般来说,三层神经网络可以逼近任何一个非线性函数,为什么还需要深度神经网络? 
  网络上一位长者提出了“完全不依靠人工神经网络与机器学习算法实现人工智能”的理论,大家怎么看? 
  神经网络,分类和回归问题,在网络结构上的区别是什么?分类比回归多一层softmax吗?诚心求教? 
  如何把梯度传递过Argmax? 
  如何评价 MSRA 最新的 Deformable Convolutional Networks? 
  如何评价Hinton组的新工作SimCLR? 
  卷积神经网络如果将池化层去除,与神经网络的区别还大么? 
  GAN(对抗生成网络)可以被用于哪些(商业或潜在商业)实际问题? 
  为何总感觉人工智能和神经科学(神经网络)被绑在一起? 
  深度学习的多个loss如何平衡? 

前一个讨论
如何看待温柔junz最新视频《豫章书院曝光者温柔,深陷“网络暴力”泥潭》 并声称自己一生没有做坏事?
下一个讨论
如何评价「神经网络本质不过是初中生都会的复合函数」?





© 2024-11-21 - tinynew.org. All Rights Reserved.
© 2024-11-21 - tinynew.org. 保留所有权利