地震信号系列完结篇-反卷积方法

article/2025/9/19 21:33:38

前言

本篇将详细地讲解地震信号中用到的反卷积方法。反卷积方法的作用在文章 地震信号的一些基本概念 中已经阐述过,简单的说就是:在压缩原信号的同时,对频谱进行补偿(反卷积的输出信号)。而在地震信号处理中,除了前面的优势,该方法还可以使反射系数成为尖脉冲,从而提高地震记录的分辨率。

地震记录:就是由仪器在地表所测的地震数据
反射系数:表征的是地球的每一层对地震波的反射特征,相当于一个系统或是滤波器,可看作为滤波器系数
地震记录的分辨率:地震记录的目的是想把地球的每一层进行区分和识别,而区分的细度就是所谓的分辨率,所能识别的底层越多,则分辨率越高,反之越低。

地震记录定义(输出信号)

我们首先给出地震记录的定义:
x ( t ) = s ( t ) ∗ ε ( t ) x\left ( t \right ) = s\left ( t \right ) \ast \varepsilon \left ( t \right ) x(t)=s(t)ε(t)
其中
x ( t ) x\left ( t \right ) x(t):地震记录, s ( t ) s\left ( t \right ) s(t):地震子波, ε ( t ) \varepsilon \left ( t \right ) ε(t):反射系数序列

地震子波包括震源子波,记录滤波器,地表反射和检波器的组合响应。上述定义省去了噪音的影响。

地震子波:与相关子波(相关序列)是不同的概念,它不是相关序列

反卷积要处理的问题

在地震勘探中,当地下层位较密集时,它们之间的反射层将难以区分,见下图:
reflection_layer

前三个反射层间距很接近。

所以希望反射层的反射系数为一系列的尖脉冲,这样就能从地震记录中把各反射层区分开来,从而提高了地震记录的分辨率。如何将非尖脉冲的信号压缩成尖脉冲的反射系数,就是反卷积要处理的问题和重点。

反卷积方法

首先我们使用地震记录定义
x ( t ) = s ( t ) ∗ ε ( t ) x\left ( t \right ) = s\left ( t \right ) \ast \varepsilon \left ( t \right ) x(t)=s(t)ε(t)
对其进行时域到频域的变换(傅里叶变换),得到
x ( ω ) = s ( ω ) E ( ω ) x\left ( \omega \right ) = s\left ( \omega \right ) E \left ( \omega \right ) x(ω)=s(ω)E(ω)
其中
x ( ω ) x\left ( \omega \right ) x(ω) 为地震记录 x ( t ) x\left ( t \right ) x(t) 的频谱;
s ( t ) s\left ( t \right ) s(t) 为地震子波 s ( ω ) s\left ( \omega \right ) s(ω) 的频谱;
E ( ω ) E \left ( \omega \right ) E(ω) 为反射系数的频谱;
显然,
E ( ω ) = x ( ω ) s ( ω ) E \left ( \omega \right ) =\frac{x\left ( \omega \right )}{s\left ( \omega \right )} E(ω)=s(ω)x(ω),

A ( ω ) = 1 s ( ω ) A\left ( \omega \right ) = \frac{1}{s\left ( \omega \right )} A(ω)=s(ω)1,

E ( ω ) = A ( ω ) x ( ω ) E \left ( \omega \right ) = A\left ( \omega \right ) x\left ( \omega \right ) E(ω)=A(ω)x(ω)
转到时域为:
ε ( t ) = a ( t ) ∗ x ( t ) = a ( t ) ∗ s ( t ) ∗ ε ( t ) \varepsilon \left ( t \right ) = a\left ( t \right ) \ast x\left (t \right ) =a\left ( t \right ) \ast s\left ( t \right ) \ast \varepsilon \left ( t \right ) ε(t)=a(t)x(t)=a(t)s(t)ε(t)
其中
a ( t ) a\left ( t \right ) a(t) A ( ω ) A\left ( \omega \right ) A(ω) 的时域序列。

根据上式和卷积的同元性质可知:
a ( t ) ∗ s ( t ) = δ ( t ) a\left ( t \right ) * s\left ( t \right ) = \delta \left ( t \right ) a(t)s(t)=δ(t) (1)

其中
δ ( t ) = { 0 , t ≠ 0 1 , t = 0 \delta \left ( t \right ) = \begin{cases} 0,t\ne 0\\1, t=0 \end{cases} δ(t)={0,t=01,t=0

a ( t ) a\left ( t \right ) a(t) 地震反子波。

根据已知地震子波 s ( t ) s\left ( t \right ) s(t),即可求出地震反子波 a ( t ) a\left ( t \right ) a(t) ,而根据卷积模型
E ( ω ) = A ( ω ) x ( ω ) ⇒ ε ( t ) = a ( t ) ∗ x ( t ) E \left ( \omega \right ) = A\left ( \omega \right ) x\left ( \omega \right ) \\ \Rightarrow \varepsilon \left ( t \right ) = a\left ( t \right ) \ast x\left (t \right ) E(ω)=A(ω)x(ω)ε(t)=a(t)x(t)
就可求出反射系数 ε ( t ) \varepsilon \left ( t \right ) ε(t)
上述过程是反卷积的全过程,特别地,它是反卷积的一个特例,即反滤波,所谓反滤波是因为滤波算子 a ( t ) a\left ( t \right ) a(t) 是地震子波的逆。

地震子波最小相位的假设:由于在求取反卷积滤波算子时,地震子波的频谱作为分母出现,很明显为了使反滤波算子稳定,地震子波必须是最小相位的,因为最小相位的零点都位于单位圆内,也就是作为分母出现的极点

扩展知识

上一节的过程看似顺理成章,其实隐含了一个最优方法求解滤波算子的过程。我们从最初的地震记录卷积模型得到:
x ( t ) ∗ f ( t ) = s ( t ) ∗ f ( t ) ∗ ε ( t ) x\left ( t \right ) \ast f\left ( t \right ) = s\left ( t \right ) \ast f\left ( t \right ) \ast \varepsilon \left ( t \right ) x(t)f(t)=s(t)f(t)ε(t)
s ( t ) ∗ f ( t ) = δ ( t ) s\left ( t \right ) \ast f\left ( t \right ) = \delta \left ( t \right ) s(t)f(t)=δ(t) 时,即为上一节的式(1)。
其实 δ ( t ) \delta \left ( t \right ) δ(t) 是一个期望输出,而实际输出为 s ( t ) ∗ f ( t ) s\left ( t \right ) \ast f\left ( t \right ) s(t)f(t),那么使用最小二乘原理的目标误差函数为
e ( t ) = ∑ ( s ( t ) ∗ f ( t ) − δ ( t ) ) 2 e\left ( t \right ) = \sum \left ( s\left ( t \right ) \ast f\left ( t \right ) - \delta \left ( t \right ) \right )^{2} e(t)=(s(t)f(t)δ(t))2
所以最理想的情况就是误差函数为0,即 s ( t ) ∗ f ( t ) = δ ( t ) s\left ( t \right ) \ast f\left ( t \right ) = \delta \left ( t \right ) s(t)f(t)=δ(t)
此外,为了反射系数达到更好的波形,我们可以选择俞式子波作为期望输出(该知识也超出本篇范围)。

小结

本篇既是地震信号补偿频谱的基础也是对提高反射坡面识别率的重要基础,地震信号的处理技术很多都基于反卷积知识,当然还有最小相位,混合相位和最大相位的区分,还有期望输出子波的选择等等,它们都是以此为基础来对地震信号进行处理的。
(如有错误,请指正)


http://chatgpt.dhexx.cn/article/JC5mQK7K.shtml

相关文章

反卷积的棋盘格效应

本文译自来自谷歌大脑的AUGUSTUS ODENA等人的文章: Deconvolution and Checkerboard Artifacts[1], 虽然是16年的博客了, 但是其对解释反卷积的棋盘效应已经如何规避都给出了非常好和到位的意见. 下面让我们开始~ 前言 当我们分析由神经网络生成的图片的时候, 常常会发觉有一种…

反卷积神经网络介绍

反卷积是指:通过测量输出和已经输入重构未知输入的过程。在神经网络中,反卷积过程并不具备学习的能力,仅仅是用于可视化一个已经训练好的卷积网络模型,没有学习训练的过程。 下图所示为VGG 16反卷积神经网络的结构,展示…

一文读懂什么是反卷积

反卷积(Deconvolution)的概念第一次出现是Zeiler在2010年发表的论文Deconvolutional networks中,但是并没有指定反卷积这个名字,反卷积这个术语正式的使用是在其之后的工作中(Adaptive deconvolutional networks for mid and high…

反卷积相关论文理解

关于反卷积原理,小编就不再赘述,在知乎中有详细的解释,很清晰,都是大佬。 链接如下:https://www.zhihu.com/question/43609045/answer/120266511 反卷积相对于卷积在神经网络结构的正向和反向传播中做相反的运算&…

反卷积理解和推导

参考 怎样通俗易懂地解释反卷积? - 知乎,【基础知识学习】卷积与反卷积学习笔记 - 知乎 1.概念 反卷积是一种特殊的正向卷积,先按照一定的比例通过补 0 来扩大输入图像的尺寸,接着旋转卷积核,再进行正向卷积。 图1 反…

生物信息学反卷积论文阅读

文章目录 反卷积的概念反卷积的具体方式反卷积预测RNA序列知识背景公式推导 亚硫酸氢盐测序知识背景公式推导 R包的使用RNA测序数据分析使用亚硫酸氢盐数据进行测序 反卷积的概念 由于许多组织样本不适合分解成单个细胞,因此不能利用单细胞RNA测序技术对它们的单个…

理解反卷积

先看看卷积,数字只是说明位置方便,不是具体数值,这里是valid卷积 ,stride1 由CNN基础我们知道 17 这个点是由前面1 2 5 6 和卷积核运算得到的,那么反卷积就是要从17 反推1,2,5,6 ,这是一个无穷解问题&#…

反卷积常用方法

反卷积 一个用于分类任务的深度神经网络通过卷积来不断抽象学习,实现分辨率的降低,最后得到一个较小的FeatureMap,即特征图,通常大小为 5 5 5\times5 55或者 7 7 7\times7 77。而图像分割任务需要恢复与原尺寸大小一样的图片&am…

声音反卷积matlab,用MATLAB做反卷积

关键词:反卷积 MATLAB fft 频移 分母中频谱零点 卷积核 % 代码如下: clear all;clc; h [1 1 1 1] % 要求 f [1 -2 3 -2] % 已知 g conv(h,f) % 已知 g h*f 这里卷积结果g知道,f知道,f视作卷积核,反卷积求h …

彻底搞懂CNN中的卷积和反卷积

前言 卷积和反卷积在CNN中经常被用到,想要彻底搞懂并不是那么容易。本文主要分三个部分来讲解卷积和反卷积,分别包括概念、工作过程、代码示例,其中代码实践部分主结合TensorFlow框架来进行实践。给大家介绍一个卷积过程的可视化工具&#x…

卷积与反卷积

1、卷积 上图展示了一个卷积的过程,其中蓝色的图片(4*4)表示的是进行卷积的图片,阴影的图片(3*3)表示的是卷积核,绿色的图片(2*2)表示是进行卷积计算之后的图片。在卷积操作中有几个比较重要的参数,输入图片的尺寸、步长、卷积核的…

反卷积原理

一 介绍 反卷积,可以理解为卷积操作的逆运算。这里千万不要当成反卷积操作可以复原卷积操作的输入值,反卷积并没有那个功能,它仅仅是将卷积变换过程中的步骤反向变换一次而已,通过将卷积核转置,与卷积后的结果再做一遍…

Tensorflow——反卷积

目标——主要用来进行上采样,使图像形状变大 函数:conv2d_transpose(value, filter, output_shape, strides, padding"SAME", data_format"NHWC", nameNone) Arg: value:指需要做反卷积的输入图像&#xff…

机器学习19:反卷积算法

机器学习19:反卷积算法(转载和整理) 在整理全卷积网络的过程中,被反卷积的概念困扰很久,于是将反卷积算法单独整理为一篇博客,本文主要转载和整理自知乎问题如何通俗易懂地解释反卷积?中的高票答案。 1.反…

卷积和反卷积详解

反卷积(deconvolution),也叫转置卷积,分部卷积(fractionally-strided convolution),在论文中也叫upconv。 1. Pytorch中2D卷积和反卷积的函数 class torch.nn.Conv2d(in_channels, out_channe…

什么是反卷积(快速理解)

什么是反卷积 参考博客 我们知道输入图像通过卷积神经网络(CNN)提取特征后,输出的尺寸往往会变小,而又是我们需要将图像恢复到原来的尺寸以便进行进一步的计算,整个扩大图像尺寸,实现图像由小分辨率到大分辨…

反卷积(Transposed Convolution, Fractionally Strided Convolution or Deconvolution)

反卷积(Deconvolution)的概念第一次出现是Zeiler在2010年发表的论文 Deconvolutional networks 中,但是并没有指定反卷积这个名字,反卷积这个术语正式的使用是在其之后的工作中( Adaptive deconvolutional networks for mid an…

反卷积详解

一.概述 反卷积又称转秩卷积(Transposed Convolution),上采样(Upsampled )。 其作用举例如下: 1.当我们用神经网络生成图片的时候,经常需要将一些低分辨率的图片转换为高分辨率的图片。 2.在语义分割中,会使用卷积层在编码器中…

反卷积通俗详细解析与nn.ConvTranspose2d重要参数解释

文章目录 反卷积的作用卷积中padding的几个概念No PaddingHalf(Same) PaddingFull Padding 反卷积反卷积中的Padding参数反卷积的stride参数反卷积的output_padding参数 反卷积总结参考资料 反卷积的作用 传统的卷积通常是将大图片卷积成一张小图片,而反卷积就是反…

反卷积(Transposed conv deconv)实现原理(通俗易懂)

什么是卷积 卷积就是把卷积核放在输入上进行滑窗,将当前卷积核覆盖范围内的输入与卷积核相乘,值进行累加,得到当前位置的输出,其本质在于融合多个像素值的信息输出一个像素值,本质上是下采样的,所以输出的…