百科问答小站 logo
百科问答小站 font logo



深度学习火热兴起后,隐马尔可夫模型(HMM)还有何独到之处,是不是几乎可被深度学习模型给替代了? 第1页

  

user avatar   kiwee 网友的相关建议: 
      

尝试去思考下HMM,CRF,RNN这些模型最本质的联系和区别。联系上,这些都可以看成图。区别上:HMM属于有向图,且有两个非常强的假设,即当前状态只与前一状态有关还有观察值之间的严格独立。CRF属于无向图,是一个有条件的马尔可夫随机场。RNN算是有向图,深度学习讲究的是最小化先验表征和计算假设,避免明确的手工设计结构。说到这儿的时候,这个问题就算是回答完了。深度学习的兴起迎和了积攒了几十年的廉价数据以及刚刚全面爆发的计算资源,但是并不是“没有设计才是好设计”。实际上无论CNN和RNN都是有结构设计的,否则也不会有各种各样的网络结构了。HMM,CRF以及未来必将会出现各种“图结构假设”,都有自己的适用场景。好的图结构假设,可以避免使用海量的训练数据。而且很多时候,即使有海量训练数据也无法达到我们的目的,比如,很难在一个全连接结构里完成图像识别,全连接的假设非常弱,只有层级关系的假设,但是我们加入了一点点空间假设,CNN就能把图像识别这个任务做到极致。

前段时间deepmind放出了一篇图网络的论文,里面提到了关系归纳偏差这个东西。听起来很拗口,但是把它当成对应的“结构假设“就比较明了了。比如“卷积结构”可以看作是一个特定的图结构假设,在这个假设中,我们强加了一些重要的关系归纳偏差:局部性和平移不变性。“循环”结构中则存在时间不变性的关系归纳偏差。这个世界还存在大量的关系结构,比如语法树结构,刚体结构,甚至三体结构。。

我们堆叠神经网络,加入跳层连接,甚至可变卷积核,等都是关系归纳偏差。可以尝试从结构假设角度去理解他们,堆叠神经网络的过程中,我们得到了“分层处理”这个关系归纳偏差,其中计算分阶段执行,通常导致输入阶段中的信息之间的长距离交互。然后我们发现“分层处理”的关系归纳偏差有时候并不太理想,于是我们加入了跳层连接这个关系归纳偏差,跳层连接不但可以让梯度更容易回流来训练更深的网络,还可以把底层的特征跟高层特征结合起来。在可变卷积核中,我们加入偏移量来训练卷积核的“形状”,此处我们又加入了”局部关联“这样一个关系归纳偏差,比如一个人站在背景中,显然人体边缘附近的像素会比背景中的像素与人更相关。

最后问题来了,我们的脑子里,还有哪些结构假设?




  

相关话题

  机器学习如何才能避免「只是调参数」? 
  神经网络中的能量函数是如何定义的? 
  神经网络中,bias有什么用,为什么要设置bias,当加权和大于某值时,激活才有意义? 
  国内外有哪些做小样本学习(Few-Shot Learning)的优秀团队? 
  如何看待Transformer在CV上的应用前景,未来有可能替代CNN吗? 
  有哪些比较好的机器学习,深度学习的网络资源可利用? 
  类似AlphaGo一样的人工智能什么时候才可以击败RTS(如星际)顶级选手? 
  Batch normalization和Instance normalization的对比? 
  把某人的 DNA 序列作为输入,正面照片作为输出,丢到深度神经网络里面学习,可行吗? 
  领域自适应需要用到测试集数据,这样的方法有啥意义呢? 

前一个讨论
如何评价ST-GCN动作识别算法?
下一个讨论
如何评价Google 在TensorFlow 中引入的bfloat16 数据类型?





© 2025-03-26 - tinynew.org. All Rights Reserved.
© 2025-03-26 - tinynew.org. 保留所有权利