百科问答小站 logo
百科问答小站 font logo



如何评价 CVPR 2020的论文接收结果?有哪些亮点论文? 第1页

  

user avatar   qi-guo-jun-99 网友的相关建议: 
      

恭喜团队四篇论文被cvpr2020接收。尤其可贺的是成功地把我近期力推的AET用在了图模型和GAN网络的无监督自训练上,取得了突破性的进展。至此,我们的AET (Auto-Encoding Transformations) 已经形成了一个完整系列的系统工作,从图像分类、物体检测、图模型、GAN网络,并有了从信息论到李代数的一整套解释和理论。之后我们会开发一套完整的工具包方便大家使用和研究。

下面主要介绍下AET模型在图模型和GAN网络无监督训练上的突破。

图模型:GraphTER: Unsupervised learning of Graph Transformation Equivariant Representations via Auto-Encoding Node-wise Transformations [pdf]

这个方法是通过对Graph 中node进行全局或局部变换与扰动,并通过对node-wise transformations进行预测来实现GNN网络的self-training。学习得到的特征既可以是node-wise feature,也可以是对整个graph的feature。这种方法的思想是好的graph特征应当可以很好地对graph地链接与拓扑结构进行编码,进而能够从中提取出作用在graph拓扑结构上的各种变换。虽然我们在这篇文章中是以3D点云相应地graph为研究对象,但所用的自监督graph网络训练方法具有通用性,可以用在很多其他的graph 任务上。

GAN模型: Transformation GAN for unsupervised Image Synthesis and Representation Learning

这篇论文中,我们把AET 思想用来训练GAN模型。这里用AET对应的loss作为正则化项来更好的训练GAN中的discriminator。众所周知的是,GAN 中的discriminator训练极容易过拟合,而加入各种新的变换后,discriminator 网络可以更好的感知到在不同的变换下,真实样本和虚假样本之间的区别,进而可以更好的训练出更好的generator网络。传统的数据增强需要假设变换后的样本仍然具有高度的真实性。但大强度的变换往往会引入各种distortion,使得一个真实的图像变得扭曲而不再真实。通过AET loss,我们不再直接把变换后的图像作为正例来训练discriminator,而仅仅通过预测transformation本身来对discrminator的训练进行正则化。这种方法,可以使用更大范围地变换,进而获得更好地性能。


附上AET 的原创论文:AET vs. AED: Unsupervised Representation Learning by Auto-Encoding Transformations rather than Data [pdf]

以及期刊版本: Learning Generalized Transformation Equivariant Representations via Autoencoding Transformations [pdf] (这个版本包含更多结果)


有希望了解更多AET内容的同学,可以参看我另外一个回答

我同时计划用一个系列八篇文章来比较系统的介绍下以AET为代表的研究变换对称性的模型从无监督、半监督到全监督各个层面所起到的重要作用,有兴趣的同学可以收藏和专注下这个系列,目前刚更新了第一期。


简单来说,AET 是通过对变换本身进行自编码实现自监督学习(self-supervised)的一种通用方法和架构。在最近一些无监督或自监督的方法中,我们注意到各种变换(transformations)在其中起到的核心作用,这其中包括了Hinton自己公布的新方法SimpleCLR。基于contrastive loss的方法其实还是在间接的使用transformation来获得单个样本的多个copy,而我们提出的AET是一种更加直接地利用对变换本身的预测来实现无监督学习地方法。

我们目前在物体检测任务上已经可以beat全监督学习到的模型。下一步我们会在我的团队github主页上陆陆续续放出更多的结果与代码,欢迎大家关注



同时,也欢迎大家关注我的知乎账号

与我的专栏




  

相关话题

  AI 芯片和传统芯片有何区别? 
  为什么yolov5从零开始训练(不在ImageNet上预训练)能够达到如此高的性能? 
  要研究深度学习的可解释性(Interpretability),应从哪几个方面着手? 
  如何看待2016年3月柯洁表示 AlphaGo「赢不了我」? 
  pytorch ddp训练中一个node fail,导致整个训练失败,有可能解决吗? 
  如何看待 2014 年以来计算机视觉(Computer Vision)界创业潮? 
  成长型企业如何灵活、高效、全方位地实现数字化转型? 
  如何看待End-to-End Object Detection with Transformers? 
  BioRxiv 等发表预印本论文的平台会对科研界产生怎样的影响? 
  如何看待人机大战第四局李世石战胜 AlphaGo? 

前一个讨论
请问分层强化学习到底是什么?
下一个讨论
当中国超越美国后会有什么变化?





© 2025-02-27 - tinynew.org. All Rights Reserved.
© 2025-02-27 - tinynew.org. 保留所有权利