百科问答小站 logo
百科问答小站 font logo



如何理解深度学习中的deconvolution networks? 第1页

  

user avatar   mennng 网友的相关建议: 
      

一句话解释:逆卷积相对于卷积在神经网络结构的正向和反向传播中做相反的运算。

逆卷积(Deconvolution)比较容易引起误会,转置卷积(Transposed Convolution)是一个更为合适的叫法.

举个栗子:

4x4的输入,卷积Kernel为3x3, 没有Padding / Stride, 则输出为2x2。


输入矩阵可展开为16维向量,记作
输出矩阵可展开为4维向量,记作
卷积运算可表示为


不难想象其实就是如下的稀疏阵:


平时神经网络中的正向传播就是转换成了如上矩阵运算。

那么当反向传播时又会如何呢?首先我们已经有从更深层的网络中得到的.



回想第一句话,你猜的没错,所谓逆卷积其实就是正向时左乘,而反向时左乘,即的运算。

逆卷积的一个很有趣的应用是GAN(Generative Adversarial Network)里用来生成图片:Generative Models


----

[1603.07285] A guide to convolution arithmetic for deep learning

GitHub - vdumoulin/conv_arithmetic: A technical report on convolution arithmetic in the context of deep learning




  

相关话题

  想问下专业人士 OpenCv会被深度学习进一步取代吗进一步取代吗? 
  CVPR 2015 有什么值得关注的亮点? 
  当前深度学习理论基础薄弱是否意味着我们应该放弃深度学习应用(计算机视觉、自然语言处理)? 
  请问下大家训练 SimCSE 时, loss 有没有这样的情况? 
  语义网所谓的“本体”的具体例子是什么? 
  为什么ViT里的image patch要设计成不重叠? 
  对于神经网络,硕士博士不需要弄明白原理,只需要应用,是这样吗? 
  Word2vec 翻译到另一种语言,其向量空间之间的映射会不会是线性的? 
  精确率、召回率、F1 值、ROC、AUC 各自的优缺点是什么? 
  GAN 真的创造了新的信息吗? 

前一个讨论
如何看待 2017 年 6 月 9 日发生的北大赴美交流硕士章莹颖女士失踪一案?
下一个讨论
为什么 Non-Convex Optimization 受到了越来越大的关注?





© 2024-06-26 - tinynew.org. All Rights Reserved.
© 2024-06-26 - tinynew.org. 保留所有权利