百科问答小站 logo
百科问答小站 font logo



如何评价 On Unifying Deep Generative Models 这篇 paper? 第1页

  

user avatar   zhisbug 网友的相关建议: 
      

这是一个挺有意思的工作。这篇工作试图把近来很火爆的一系列深度生成模型(特别是GAN和VAE)和他们的诸多变种用统一的框架解释。

举个例子,比如GAN,原始的GAN paper是用博弈论来构造出整个模型的,最近也有不少文章试图来从不同角度理解或解释GAN(比如 https://arxiv.org/abs/1606.00709, https://arxiv.org/abs/1610.03483)。但是这篇文章从另一个角度出发:把X(比如图片)看做隐变量(latent variable),用Bayesian Inference里面的经典方法变分(variational inference)来解释生成过程(generation),很巧妙。

他这种formulation最大的好处是很容易把一些以前常见的模型联系起来, 比如VAE,wake-sleep等等;这些模型或算法,本身都是从variational inference的角度出发的。有了这个理解以后,很方便把各种靠VI求解的模型或很多现成的VI inference方法和GAN这一套体系结合起来,说不定在各个benchmark上又能搞点新闻出来。

利益相关。。。。我看着一作在我旁边把这个paper写出来的...




  

相关话题

  如何开发一个自己的 TensorFlow? 
  魔鬼如何在最短时间内抓住天使? 
  如何评价 Kaiming 团队新作 Masked Autoencoders (MAE)? 
  为什么nn的较大问题是会陷入局部最优时,不选用凸函数作为激活函数? 
  实验室一块GPU都没有怎么做深度学习? 
  ICLR 2021 有什么值得关注的投稿? 
  深度学习有哪些好玩的案例? 
  在迁移学习中,只有fine-tune和基于实例的迁移可用在小样本上吗,还有其他的小样本迁移方法吗? 
  为什么要压缩模型,而不是直接训练一个小的CNN? 
  如何评价 Kaiming 团队新作 Masked Autoencoders (MAE)? 

前一个讨论
如何看待Yoav Goldberg 怒怼来自MILA的GAN for NLG的paper?
下一个讨论
自然界有哪些长相可怕的动物?





© 2025-03-30 - tinynew.org. All Rights Reserved.
© 2025-03-30 - tinynew.org. 保留所有权利