百科问答小站 logo
百科问答小站 font logo



如何理解深度学习中的deconvolution networks? 第1页

  

user avatar   mennng 网友的相关建议: 
      

一句话解释:逆卷积相对于卷积在神经网络结构的正向和反向传播中做相反的运算。

逆卷积(Deconvolution)比较容易引起误会,转置卷积(Transposed Convolution)是一个更为合适的叫法.

举个栗子:

4x4的输入,卷积Kernel为3x3, 没有Padding / Stride, 则输出为2x2。


输入矩阵可展开为16维向量,记作
输出矩阵可展开为4维向量,记作
卷积运算可表示为


不难想象其实就是如下的稀疏阵:


平时神经网络中的正向传播就是转换成了如上矩阵运算。

那么当反向传播时又会如何呢?首先我们已经有从更深层的网络中得到的.



回想第一句话,你猜的没错,所谓逆卷积其实就是正向时左乘,而反向时左乘,即的运算。

逆卷积的一个很有趣的应用是GAN(Generative Adversarial Network)里用来生成图片:Generative Models


----

[1603.07285] A guide to convolution arithmetic for deep learning

GitHub - vdumoulin/conv_arithmetic: A technical report on convolution arithmetic in the context of deep learning




  

相关话题

  机器学习的理论方向 PhD 是否真的会接触那么多现代数学(黎曼几何、代数拓扑之类)? 
  如何看待MXNet获得amazon官方支持首位? 
  为什么deep lab v3起,输出不再接 DenseCRF了? 
  attention跟一维卷积的区别是啥? 
  为什么说股票不能通过机器学习来预测? 
  训练过程中loss震荡特别严重,可能是什么问题? 
  如何看待旷视科技新产品监视学生上课? 
  如何判断两个Deep Learning 数据集的数据分布是否一致? 
  deepmind发表的neural processes(神经过程),这个是怎么实现的呢? 
  全连接层的作用是什么? 

前一个讨论
如何看待 2017 年 6 月 9 日发生的北大赴美交流硕士章莹颖女士失踪一案?
下一个讨论
为什么 Non-Convex Optimization 受到了越来越大的关注?





© 2025-04-29 - tinynew.org. All Rights Reserved.
© 2025-04-29 - tinynew.org. 保留所有权利