百科问答小站 logo
百科问答小站 font logo



你遇见过什么当时很有潜力但是最终没有流行的深度学习算法? 第1页

  

user avatar   huo-hua-de-41 网友的相关建议: 
      

提名Memory Networks

准确说Memory Networks并不只是一个模型,而是一套思路,使用外部的一个memory来存储长期记忆信息,因为当时RNN系列模型使用final state 存储的信息,序列过长就会遗忘到早期信息。

甚至,我觉得Memory Networks的思想后面启发了self-attention和transformer。最重要的就是提出了query - key - value思想,当时的该模型聚焦的任务主要是question answering,先用输入的问题query检索key-value memories,找到和问题相似的memory的key,计算相关性分数,然后对value embedding进行加权求和,得到一个输出向量。这后面就衍生出了self-attention里的Q,K,V表示,在self-attention里的Q=K=V,但早期的Memory Networks中可以看出,QKV其实是三个向量。

如今,Memory Networks已少有人提及,但它的思想已经被transformer继承,而transformer已经横扫NLP和CV等多个领域。突然有了一种“功成不必在我,而功成必定有我"的感慨。又联想到谭嗣同变法虽然失败了,但他又一个学生叫杨昌济,杨昌济又有一个学生叫毛泽东...




  

相关话题

  人类大脑的聪慧程度以 IQ 为标准,那么人工智能的水平用什么指标来衡量呢? 
  如何直观地解释 backpropagation 算法? 
  如何理解今年发表在JMLR上随机森林算法SPORF? 
  如何看待多模态transformer,是否会成为多模态领域的主流? 
  如何看待人工智能领域的很多专家认为「人工智能将对人类存亡造成威胁」的观点? 
  为什么说大模型训练很难? 
  2020-2021年NLP有什么核心技术的更迭吗?或者有什么推动领域发展的paper吗? 
  在算力充沛,深度学习模型大行其道的今天,传统机器学习的未来在哪里? 
  Evidential deep learning里一般怎么估计多标签分类的Uncertainty? 
  如何评价 Kaiming He 在 ICCV 2017 上拿下双 Best 的 paper? 

前一个讨论
CV方向多模态融合有哪些好的paper?
下一个讨论
国内有哪些不错的CV(计算机视觉)团队?





© 2025-06-19 - tinynew.org. All Rights Reserved.
© 2025-06-19 - tinynew.org. 保留所有权利