百科问答小站 logo
百科问答小站 font logo



是不是并不是所有问题都适合用神经网络预测? 第1页

  

user avatar   yukio-2 网友的相关建议: 
      
  • 小样本情况,无论是低维还是高维,不如SVM和贝叶斯模型
  • 低维数据,大样本量,不如各种ensemble类算法
  • 以上主要问题在于过拟合,传统机器学习算法大部分对过拟合都有比较合理的解决方案,而神经网络基本只靠heuristic。dropout虽然在Bayesian deep learning里面有不错的意义,但只依靠dropout来做inference实践上未免有点单薄
  • 低维时序数据,小样本量,大部分情况下比不过HMM,ARIMA一类的,比如语音识别里至今CNN没有比HMM效果好多少
  • 三维的图像数据,神经网络参数量太大,虽然有不少文章voxel based cnn,我目前还没有复现过效果比较好的模型
  • 上面的三维数据,有一种做法是多视角赤极投影,然后用LSTM去学,然而实数空间不存在一个SO(3)群到S2群的连续映射,因为二者不同构,所以即使你做出实验效果,也有可能是某种过拟合的结果
  • 神经网络容易受到对抗样本的攻击,攻击很容易,防御十分困难,目前为止的大部分防御措施都被指出存在漏洞
  • 不规则数据,比如说graph signal或者point cloud,虽然有不少文章都尝试graph signal上做卷积,但是目前为止,应用在复杂数据集上效果欠佳,而且数学研究者的工作与CS研究者的工作还有着巨大的隔阂
  • 有一些文章用神经网络做图像去噪,这类的文章,凡声称自己是“盲”去噪,不加任何正则项先验项的,有一大部分连自己到底想做到什么样的目标都说不清



  

相关话题

  深度学习领域,你心目中 idea 最惊艳的论文是哪篇? 
  如何评价 MLSys 这个会议? 
  如何证明马尔科夫链一定会达到稳态? 
  基于深度学习的自然语言处理在 2016 年有哪些值得期待的发展? 
  GAN的生成器是怎么产生图片的? 
  自学深度学习是怎样一种体验? 
  神经网络分类训练后得到的是连续的数怎么离散? 
  如何看待何恺明最新一作论文Masked Autoencoders? 
  为什么小模型已经可以很好地拟合数据集了,换大模型效果却要比小模型好? 
  在文本分类任务中,有哪些论文中很少提及却对性能有重要影响的tricks? 

前一个讨论
正负样本极不平衡的问题?
下一个讨论
怎样才能写出 Pythonic 的代码?





© 2025-01-03 - tinynew.org. All Rights Reserved.
© 2025-01-03 - tinynew.org. 保留所有权利