python 反卷积(DeConv) tensorflow反卷积(DeConv)(实现原理+手写)

article/2025/9/19 21:22:35
Tensorflow反卷积(DeConv)实现原理+手写python代码实现反卷积(DeConv)

理解:

https://www.zhihu.com/question/43609045/answer/130868981

上一篇文章已经介绍过卷积的实现,这篇文章我们学习反卷积原理,同样,在了解反卷积原理后,在后面手写python代码实现反卷积。

反卷积用途:
上采样,
gan,反卷积来生成图片

1 反卷积原理

反卷积原理不太好用文字描述,这里直接以一个简单例子描述反卷积过程。

假设输入如下:

[[1,0,1],[0,2,1],[1,1,0]]

反卷积卷积核如下:

[[ 1, 0, 1],[-1, 1, 0],[ 0,-1, 0]]

现在通过stride=2来进行反卷积,使得尺寸由原来的3*3变为6*6.那么在Tensorflow框架中,反卷积的过程如下(不同框架在裁剪这步可能不一样):

反卷积实现例子
其实通过我绘制的这张图,就已经把原理讲的很清楚了。大致步奏就是,先填充0,然后进行卷积,卷积过程跟上一篇文章讲述的一致。最后一步还要进行裁剪。好了,原理讲完了,(#^.^#)….

2 代码实现

上一篇文章我们只针对了输出通道数为1进行代码实现,在这篇文章中,反卷积我们将输出通道设置为多个,这样更符合实际场景。

先定义输入和卷积核:

input_data=[[[1,0,1],[0,2,1],[1,1,0]],[[2,0,2],[0,1,0],[1,0,0]],[[1,1,1],[2,2,0],[1,1,1]],[[1,1,2],[1,0,1],[0,2,2]]]
weights_data=[ [[[ 1, 0, 1],[-1, 1, 0],[ 0,-1, 0]],[[-1, 0, 1],[ 0, 0, 1],[ 1, 1, 1]],[[ 0, 1, 1],[ 2, 0, 1],[ 1, 2, 1]], [[ 1, 1, 1],[ 0, 2, 1],[ 1, 0, 1]]],[[[ 1, 0, 2],[-2, 1, 1],[ 1,-1, 0]],[[-1, 0, 1],[-1, 2, 1],[ 1, 1, 1]],[[ 0, 0, 0],[ 2, 2, 1],[ 1,-1, 1]], [[ 2, 1, 1],[ 0,-1, 1],[ 1, 1, 1]]]  ]

上面定义的输入和卷积核,在接下的运算过程如下图所示:

执行过程

可以看到实际上,反卷积和卷积基本一致,差别在于,反卷积需要填充过程,并在最后一步需要裁剪。具体实现代码如下:

#根据输入map([h,w])和卷积核([k,k]),计算卷积后的feature map
import numpy as np
def compute_conv(fm,kernel):[h,w]=fm.shape [k,_]=kernel.shape r=int(k/2)#定义边界填充0后的mappadding_fm=np.zeros([h+2,w+2],np.float32)#保存计算结果rs=np.zeros([h,w],np.float32) #将输入在指定该区域赋值,即除了4个边界后,剩下的区域padding_fm[1:h+1,1:w+1]=fm #对每个点为中心的区域遍历for i in range(1,h+1):for j in range(1,w+1): #取出当前点为中心的k*k区域roi=padding_fm[i-r:i+r+1,j-r:j+r+1]#计算当前点的卷积,对k*k个点点乘后求和rs[i-1][j-1]=np.sum(roi*kernel)return rs#填充0
def fill_zeros(input):[c,h,w]=input.shapers=np.zeros([c,h*2+1,w*2+1],np.float32)for i in range(c):for j in range(h):for k in range(w): rs[i,2*j+1,2*k+1]=input[i,j,k] return rsdef my_deconv(input,weights):#weights shape=[out_c,in_c,h,w][out_c,in_c,h,w]=weights.shape   out_h=h*2out_w=w*2rs=[]for i in range(out_c):w=weights[i]tmp=np.zeros([out_h,out_w],np.float32)for j in range(in_c):conv=compute_conv(input[j],w[j])#注意裁剪,最后一行和最后一列去掉tmp=tmp+conv[0:out_h,0:out_w]rs.append(tmp)return rs def main():  input=np.asarray(input_data,np.float32)input= fill_zeros(input)weights=np.asarray(weights_data,np.float32)deconv=my_deconv(input,weights)print(np.asarray(deconv))if __name__=='__main__':main()

计算卷积代码,跟上一篇文章一致。代码直接看注释,不再解释。运行结果如下:

[[[  4.   3.   6.   2.   7.   3.][  4.   3.   3.   2.   7.   5.][  8.   6.   8.   5.  11.   2.][  3.   2.   7.   2.   3.   3.][  5.   5.  11.   3.   9.   3.][  2.   1.   4.   5.   4.   4.]][[  4.   1.   7.   0.   7.   2.][  5.   6.   0.   1.   8.   5.][  8.   0.   8.  -2.  14.   2.][  3.   3.   9.   8.   1.   0.][  3.   0.  13.   0.  11.   2.][  3.   5.   3.   1.   3.   0.]]]

为了验证实现的代码的正确性,我们使用tensorflow的conv2d_transpose函数执行相同的输入和卷积核,看看结果是否一致。验证代码如下:

import tensorflow as tf
import numpy as np 
def tf_conv2d_transpose(input,weights):#input_shape=[n,height,width,channel]input_shape = input.get_shape().as_list()#weights shape=[height,width,out_c,in_c]weights_shape=weights.get_shape().as_list() output_shape=[input_shape[0], input_shape[1]*2 , input_shape[2]*2 , weights_shape[2]]print("output_shape:",output_shape)deconv=tf.nn.conv2d_transpose(input,weights,output_shape=output_shape,strides=[1, 2, 2, 1], padding='SAME')return deconvdef main(): weights_np=np.asarray(weights_data,np.float32)#将输入的每个卷积核旋转180°weights_np=np.rot90(weights_np,2,(2,3))const_input = tf.constant(input_data , tf.float32)const_weights = tf.constant(weights_np , tf.float32 )input = tf.Variable(const_input,name="input")#[c,h,w]------>[h,w,c]input=tf.transpose(input,perm=(1,2,0))#[h,w,c]------>[n,h,w,c]input=tf.expand_dims(input,0)#weights shape=[out_c,in_c,h,w]weights = tf.Variable(const_weights,name="weights")#[out_c,in_c,h,w]------>[h,w,out_c,in_c]weights=tf.transpose(weights,perm=(2,3,0,1))#执行tensorflow的反卷积deconv=tf_conv2d_transpose(input,weights) init=tf.global_variables_initializer()sess=tf.Session()sess.run(init)deconv_val  = sess.run(deconv) hwc=deconv_val[0]print(hwc) if __name__=='__main__':main() 

上面代码中,有几点需要注意:

  1. 每个卷积核需要旋转180°后,再传入tf.nn.conv2d_transpose函数中,因为tf.nn.conv2d_transpose内部会旋转180°,所以提前旋转,再经过内部旋转后,能保证卷积核跟我们所使用的卷积核的数据排列一致。
  2. 我们定义的输入的shape为[c,h,w]需要转为tensorflow所使用的[n,h,w,c]。
  3. 我们定义的卷积核shape为[out_c,in_c,h,w],需要转为tensorflow反卷积中所使用的[h,w,out_c,in_c]

执行上面代码后,执行结果如下:

[[  4.   3.   6.   2.   7.   3.][  4.   3.   3.   2.   7.   5.][  8.   6.   8.   5.  11.   2.][  3.   2.   7.   2.   3.   3.][  5.   5.  11.   3.   9.   3.][  2.   1.   4.   5.   4.   4.]]
[[  4.   1.   7.   0.   7.   2.][  5.   6.   0.   1.   8.   5.][  8.   0.   8.  -2.  14.   2.][  3.   3.   9.   8.   1.   0.][  3.   0.  13.   0.  11.   2.][  3.   5.   3.   1.   3.   0.]]

对比结果可以看到,数据是一致的,证明前面手写的python实现的反卷积代码是正确的。


http://chatgpt.dhexx.cn/article/hRan5BgV.shtml

相关文章

地震信号系列完结篇-反卷积方法

前言 本篇将详细地讲解地震信号中用到的反卷积方法。反卷积方法的作用在文章 地震信号的一些基本概念 中已经阐述过,简单的说就是:在压缩原信号的同时,对频谱进行补偿(反卷积的输出信号)。而在地震信号处理中&#xf…

反卷积的棋盘格效应

本文译自来自谷歌大脑的AUGUSTUS ODENA等人的文章: Deconvolution and Checkerboard Artifacts[1], 虽然是16年的博客了, 但是其对解释反卷积的棋盘效应已经如何规避都给出了非常好和到位的意见. 下面让我们开始~ 前言 当我们分析由神经网络生成的图片的时候, 常常会发觉有一种…

反卷积神经网络介绍

反卷积是指:通过测量输出和已经输入重构未知输入的过程。在神经网络中,反卷积过程并不具备学习的能力,仅仅是用于可视化一个已经训练好的卷积网络模型,没有学习训练的过程。 下图所示为VGG 16反卷积神经网络的结构,展示…

一文读懂什么是反卷积

反卷积(Deconvolution)的概念第一次出现是Zeiler在2010年发表的论文Deconvolutional networks中,但是并没有指定反卷积这个名字,反卷积这个术语正式的使用是在其之后的工作中(Adaptive deconvolutional networks for mid and high…

反卷积相关论文理解

关于反卷积原理,小编就不再赘述,在知乎中有详细的解释,很清晰,都是大佬。 链接如下:https://www.zhihu.com/question/43609045/answer/120266511 反卷积相对于卷积在神经网络结构的正向和反向传播中做相反的运算&…

反卷积理解和推导

参考 怎样通俗易懂地解释反卷积? - 知乎,【基础知识学习】卷积与反卷积学习笔记 - 知乎 1.概念 反卷积是一种特殊的正向卷积,先按照一定的比例通过补 0 来扩大输入图像的尺寸,接着旋转卷积核,再进行正向卷积。 图1 反…

生物信息学反卷积论文阅读

文章目录 反卷积的概念反卷积的具体方式反卷积预测RNA序列知识背景公式推导 亚硫酸氢盐测序知识背景公式推导 R包的使用RNA测序数据分析使用亚硫酸氢盐数据进行测序 反卷积的概念 由于许多组织样本不适合分解成单个细胞,因此不能利用单细胞RNA测序技术对它们的单个…

理解反卷积

先看看卷积,数字只是说明位置方便,不是具体数值,这里是valid卷积 ,stride1 由CNN基础我们知道 17 这个点是由前面1 2 5 6 和卷积核运算得到的,那么反卷积就是要从17 反推1,2,5,6 ,这是一个无穷解问题&#…

反卷积常用方法

反卷积 一个用于分类任务的深度神经网络通过卷积来不断抽象学习,实现分辨率的降低,最后得到一个较小的FeatureMap,即特征图,通常大小为 5 5 5\times5 55或者 7 7 7\times7 77。而图像分割任务需要恢复与原尺寸大小一样的图片&am…

声音反卷积matlab,用MATLAB做反卷积

关键词:反卷积 MATLAB fft 频移 分母中频谱零点 卷积核 % 代码如下: clear all;clc; h [1 1 1 1] % 要求 f [1 -2 3 -2] % 已知 g conv(h,f) % 已知 g h*f 这里卷积结果g知道,f知道,f视作卷积核,反卷积求h …

彻底搞懂CNN中的卷积和反卷积

前言 卷积和反卷积在CNN中经常被用到,想要彻底搞懂并不是那么容易。本文主要分三个部分来讲解卷积和反卷积,分别包括概念、工作过程、代码示例,其中代码实践部分主结合TensorFlow框架来进行实践。给大家介绍一个卷积过程的可视化工具&#x…

卷积与反卷积

1、卷积 上图展示了一个卷积的过程,其中蓝色的图片(4*4)表示的是进行卷积的图片,阴影的图片(3*3)表示的是卷积核,绿色的图片(2*2)表示是进行卷积计算之后的图片。在卷积操作中有几个比较重要的参数,输入图片的尺寸、步长、卷积核的…

反卷积原理

一 介绍 反卷积,可以理解为卷积操作的逆运算。这里千万不要当成反卷积操作可以复原卷积操作的输入值,反卷积并没有那个功能,它仅仅是将卷积变换过程中的步骤反向变换一次而已,通过将卷积核转置,与卷积后的结果再做一遍…

Tensorflow——反卷积

目标——主要用来进行上采样,使图像形状变大 函数:conv2d_transpose(value, filter, output_shape, strides, padding"SAME", data_format"NHWC", nameNone) Arg: value:指需要做反卷积的输入图像&#xff…

机器学习19:反卷积算法

机器学习19:反卷积算法(转载和整理) 在整理全卷积网络的过程中,被反卷积的概念困扰很久,于是将反卷积算法单独整理为一篇博客,本文主要转载和整理自知乎问题如何通俗易懂地解释反卷积?中的高票答案。 1.反…

卷积和反卷积详解

反卷积(deconvolution),也叫转置卷积,分部卷积(fractionally-strided convolution),在论文中也叫upconv。 1. Pytorch中2D卷积和反卷积的函数 class torch.nn.Conv2d(in_channels, out_channe…

什么是反卷积(快速理解)

什么是反卷积 参考博客 我们知道输入图像通过卷积神经网络(CNN)提取特征后,输出的尺寸往往会变小,而又是我们需要将图像恢复到原来的尺寸以便进行进一步的计算,整个扩大图像尺寸,实现图像由小分辨率到大分辨…

反卷积(Transposed Convolution, Fractionally Strided Convolution or Deconvolution)

反卷积(Deconvolution)的概念第一次出现是Zeiler在2010年发表的论文 Deconvolutional networks 中,但是并没有指定反卷积这个名字,反卷积这个术语正式的使用是在其之后的工作中( Adaptive deconvolutional networks for mid an…

反卷积详解

一.概述 反卷积又称转秩卷积(Transposed Convolution),上采样(Upsampled )。 其作用举例如下: 1.当我们用神经网络生成图片的时候,经常需要将一些低分辨率的图片转换为高分辨率的图片。 2.在语义分割中,会使用卷积层在编码器中…

反卷积通俗详细解析与nn.ConvTranspose2d重要参数解释

文章目录 反卷积的作用卷积中padding的几个概念No PaddingHalf(Same) PaddingFull Padding 反卷积反卷积中的Padding参数反卷积的stride参数反卷积的output_padding参数 反卷积总结参考资料 反卷积的作用 传统的卷积通常是将大图片卷积成一张小图片,而反卷积就是反…