百科问答小站 logo
百科问答小站 font logo



为什么计算注意力机制的时候不加偏置项? 第1页

  

user avatar   mlxue-xi 网友的相关建议: 
      

1)注意力机制是需要计算目标item和序列中每一个item的,指数形式下增加bias,没有意义。

2)softmax权重分配存在赢者通吃,极其容易饱和,增加bias将加剧现象。所以在推荐中常常改为sigmoid函数,让权重平滑。

3)其次,增加参数,增大学习难度。

并非所有的设计都要遵循大众设计,遵循公式,要思考这样的因子可以不加吗,不加会不会更好,是不是原来的就也不需要加,加了为啥好,为啥不好。今天还看到了一篇论文在序列中加了零向量,那么在目标与序列完全无关的时候,模型attened到这个零向量即可,不会强制关注这个序列,不会引入额外的噪声。很巧妙的设计思路,当然这样的设计思路是来源于业务的理解,不是所有的业务都需要这样处理。因此,学会在合适的场景做合适的设计修改,往往产生不错的return。


user avatar   tylin98 网友的相关建议: 
      

女王:求求题主放过我,我可不敢有什么政绩。。。




  

相关话题

  如何评价最近火热的对比学习,会引领预训练模型新的范式嘛? 
  为什么CV能做到让一幅人脸图动了笑了,而NLP的text-style-transfer进展貌似一般? 
  如何比较Keras, TensorLayer, TFLearn ? 
  现大二,准备做大学生创新创业项目计划 ,目前定的方向是深度学习+畜牧业/养殖业,有什么建议给我们吗? 
  如何判断两个Deep Learning 数据集的数据分布是否一致? 
  如何判断两个Deep Learning 数据集的数据分布是否一致? 
  如何评价 2015 版的 Magi 搜索引擎? 
  为什么要压缩模型,而不是直接训练一个小的CNN? 
  如何评价FAIR提出的MaskFormer,在语义分割ADE20K上达到SOTA:55.6 mIoU? 
  深度学习方面还有什么Open Problem? 

前一个讨论
云南滇中新区发布「聚才计划」,最高给予 600 万元补助,这透露出哪些有价值的信息点?
下一个讨论
男方家境不好真的不能嫁嘛??





© 2025-05-25 - tinynew.org. All Rights Reserved.
© 2025-05-25 - tinynew.org. 保留所有权利