百科问答小站 logo
百科问答小站 font logo



自监督学习(Self-supervised Learning)有什么比较新的思路? 第1页

  

user avatar   zhan-xiao-hang 网友的相关建议: 
      

更新一个我们在CVPR2019的自监督学习新工作Self-Supervised Learning via Conditional Motion Propagation。具体见之前发的一篇文章

------------ 2019的分割线 -------------
Mix-and-Match Tuning for Self-Supervised Semantic Segmentation.
这是一种为self-supervised learning服务的tuning的方法,主要为了缩小proxy task与target task的semantic gap. 目前可以在语义分割任务上不使用ImageNet pretraining,接近有ImageNet pretraining的performance。在其中一个setting中超越了ImageNet pretraining一点点。。。
后续可能会拓展到detection,并跟semi-supervised learning结合起来。
欢迎大家围观!




  

相关话题

  语音识别中,声学模型与语言模型扮演什么角色?或者说是怎么通过两个模型进行语音识别的? 
  如何看待AI伦理科学家Timnit Gebru在邮件控诉谷歌缺乏种族多样性后被Jeff Dean炒掉? 
  如何比较Keras, TensorLayer, TFLearn ? 
  2021 年,深度学习方面取得了哪些关键性进展? 
  深度学习方面还有什么Open Problem? 
  为什么Transformer要用LayerNorm? 
  能否训练一个AI模型来预测房价,寻找投资机会挖掘价值洼地? 
  为什么小模型已经可以很好地拟合数据集了,换大模型效果却要比小模型好? 
  什么是迁移学习 (Transfer Learning)?这个领域历史发展前景如何? 
  为什么小模型已经可以很好地拟合数据集了,换大模型效果却要比小模型好? 

前一个讨论
请简单地表述结合律和交换律的区别和联系。结合律为什么那么普遍?
下一个讨论
如何评价刘强东「如果京东少缴五险一金,一年至少多赚50亿!」的言论?





© 2024-05-15 - tinynew.org. All Rights Reserved.
© 2024-05-15 - tinynew.org. 保留所有权利