GAN论文精读 P2GAN: Posterior Promoted GAN 用鉴别器产生的后验分布来提升生成器

article/2025/10/19 0:43:02

《Posterior Promoted GAN with Distribution Discriminator for Unsupervised
Image Synthesis》是大连理工学者发表的文章,被2021年CVPR收录。

文章地址:https://ieeexplore.ieee.org/document/9578672

本篇文章是阅读这篇论文的精读笔记。

一、原文摘要

生成器中足够的真实信息是GAN产生能力的关键点。然而,GAN及其变体缺乏这一点,导致训练过程脆弱。在本文中,我们提出了一种新的GAN变体,即后验提升GAN(P2GAN),它利用鉴别器产生的后验分布中的真实信息来提升生成器。在我们的框架中,与GAN的其他变体不同,鉴别器将图像映射到多元高斯分布并提取真实信息。该生成器使用AdaIN的真实信息和潜在代码正则化器。

此外,还应用了重新参数化技巧和预训练,以确保在实践中的稳定训练过程。从理论上证明了P2GAN的收敛性。在典型的高维多模态数据集上的实验结果表明,P2GAN在无监督图像合成方面取得了与最先进的GAN变体相当的结果。

二、为什么提出Posterior Promoted GAN?

生成器中足够的真实信息是GAN的关键。在原始GAN中,唯一有助于生成器的真实信息是从鉴别器传递的梯度,这对于生成器来说是间接的和空洞的,会导致脆弱的训练。GAN的一些监督变体以直接和强的方式使用标签等属性,并对属性进行一些约束,这为生成器提供了足够的真实信息。

对于GAN的无监督变体,有两种主要方法来改进真实信息:

  1. 一种方法是通过引入新的损失函数来从鉴别器提供更精细的梯度。但来自梯度的信息仍然是间接的和脆弱的,不能为发电机提供持续的支持;
  2. 另一种方法是通过向输入噪声中添加先验来丰富真实信息。然而,先验中的真实信息仅被添加到输入噪声中,通过逐渐堆叠卷积层,输入噪声可能会衰减。

为了解决上述缺乏真实信息的问题,在本文中,我们提出了一种新的GAN框架,称为Posterior Promoted GAN (P2GAN)

三、创新点

文章的创新点如下:

  1. 首先,与传统的鉴别器不能提供足够的真实信息不同,P2GAN通过鉴别器学习后验分布中丰富的真实信息,并以更直接和鲁棒的方式将信息应用于生成器。具体而言,鉴别器将图像映射到多元高斯分布,并将该分布与两个不同的给定先验分布进行匹配以进行区分。
  2. 生成器通过自适应实例归一化(AdaIN)和潜在代码正则化器将外部真实信息引入每个卷积层来提升。AdaIN直接影响卷积层中的特征比仅改变输入噪声的先验更强。大。
  3. 将最小二乘生成对抗网络(LSGAN)的损失改为分布版本,并为其收敛提供了理论保证。

贡献总结如下:

  1. 提出了一种新的GAN框架,称为P2GAN。鉴别器输出后验分布以进行区分真假,同时提取大量的真实信息。生成器通过AdaIN层利用真实信息来提高其生成能力。
  2. 将LSGAN的损失修改为分布形式,并通过皮尔逊X散度从理论上证明了其收敛性。
  3. 提出了一种新的潜在正则化器作为生成器的鲁棒约束,它可以防止后验分布中丰富的真实信息在训练过程中消失。
  4. 我们介绍了两种在实践中保证模型稳定性的方法:重新参数化技巧训练和预训练步骤

四、概念介绍

4.1、LSGAN

P2GAN使用LSGAN的损失作为基础,与原始GAN不同,LSGAN采用最小平方作为损失函数。它惩罚那些远离决策边界的样本,这可以执行更稳定的学习过程,其损失为:
min ⁡ D V L S G A N ( D ) = 1 2 E x ∼ p data  ( x ) [ ( D ( x ) − b ) 2 ] + 1 2 E x ∼ p g ( x ) [ ( D ( x ) − a ) 2 ] min ⁡ G V L S G A N ( G ) = 1 2 E x ∼ p g ( x ) [ ( D ( x ) − c ) 2 ] \begin{aligned} \min _{D} V_{L S G A N}(D)=& \frac{1}{2} \mathbb{E}_{\mathbf{x} \sim p_{\text {data }}(\mathbf{x})}\left[(D(\mathbf{x})-b)^{2}\right]+\\ & \frac{1}{2} \mathbb{E}_{\mathbf{x} \sim p_{g}(\mathbf{x})}\left[(D(\mathbf{x})-a)^{2}\right] \\ \min _{G} V_{L S G A N}(G)=& \frac{1}{2} \mathbb{E}_{\mathbf{x} \sim p_{g}(\mathbf{x})}\left[(D(\mathbf{x})-c)^{2}\right] \end{aligned} DminVLSGAN(D)=GminVLSGAN(G)=21Expdata (x)[(D(x)b)2]+21Expg(x)[(D(x)a)2]21Expg(x)[(D(x)c)2]
p d a t a ( x ) p_{data}(x) pdata(x)是真实图像的分布, p g ( x ) p_g(x) pg(x)是生成图像的分布。a和b分别是假数据和真实数据的标签,而c表示G希望D相信假数据的值。

4.2、AdaIN

AdaIN是针对风格传递提出的,它可以将外部风格图像信息融合到归一化中。AdaIN使用实例归一化(Instance Normalization)对 m i m_i mi进行归一化,然后使用IN在样式特征si上提供的相应均值和方差对其进行缩放和偏置:
AdaIN ⁡ ( m i , s i ) = σ I N ( s i ) m i − μ I N ( m i ) σ I N ( m i ) + μ I N ( s i ) \operatorname{AdaIN}\left(\mathbf{m}_{i}, \mathbf{s}_{i}\right)=\sigma_{I N}\left(\mathbf{s}_{i}\right) \frac{\mathbf{m}_{i}-\mu_{I N}\left(\mathbf{m}_{i}\right)}{\sigma_{I N}\left(\mathbf{m}_{i}\right)}+\mu_{I N}\left(\mathbf{s}_{i}\right) AdaIN(mi,si)=σIN(si)σIN(mi)miμIN(mi)+μIN(si)

4.3、重参数化技巧

重参数化技巧的通常解释是——通过得到多元高斯分布的因子,就可以通过参数化技巧生成该分布的样本。如此分离随机变量的不确定性,使得原先无法求导/梯度传播的中间节点可以求导。

VAE中使用了重新参数化技巧,用于在变分推理中应用梯度下降。一旦我们得到了多元高斯分布的因子,就可以通过重新参数化技巧生成分布的样本。

详细来说,作者首先对随机噪声进行采样,然后根据标准高斯N(0,1),则来自特定多元高斯分布的样本可以是:
z = ϵ ⊙ σ + μ \mathbf{z}=\epsilon \odot \boldsymbol{\sigma}+\boldsymbol{\mu} z=ϵσ+μ

五、Posterior Promoted GAN

整个网络架构如下图所示
在这里插入图片描述
与 GAN 的其他变体不同,Posterior Promoted GAN在判别器中做了许多工作。

判别器将图像作为输入,其将图像映射到多元高斯分布得到并提取真实信息(提取后验分布),生成器在训练过程中借助后验模块和 AdaIN 的真实信息和潜码。

5.1、分布差异

假设a1和a2通过重新参数化技巧从两个不同的一维高斯分布 P 1 = N ( μ 1 , σ 2 2 ) P_1=N(μ_1,σ_2^2) P1=Nμ1σ22 P 2 = N ( µ 2 , σ 2 2 ) P_2=N(µ_2,σ_2^2) P2=Nµ2σ22中采样,两个高斯分布之间的差异定义为: Dis  = 1 2 ( P 1 − P 2 ) 2 \text { Dis }=\frac{1}{2}\left(P_{1}-P_{2}\right)^{2}  Dis =21(P1P2)2
根据重参数化技巧,可以得到:
a Δ = a 1 − a 2 = ϵ ( σ 1 − σ 2 ) + ( μ 1 − μ 2 ) a_{\Delta}=a_{1}-a_{2}=\epsilon\left(\sigma_{1}-\sigma_{2}\right)+\left(\mu_{1}-\mu_{2}\right) aΔ=a1a2=ϵ(σ1σ2)+(μ1μ2)
则两个分布的差异可以进一步写为:
2 D i s = E [ a Δ 2 ] = E [ ( a Δ − μ Δ + μ Δ ) 2 ] = E [ ( a Δ − μ Δ ) 2 ] + 2 E [ ( a Δ − μ Δ ) μ Δ ] + E [ μ Δ 2 ] = σ Δ 2 + 2 μ Δ ( E [ a Δ ] − μ Δ ) + μ Δ 2 = σ Δ 2 + μ Δ 2 \begin{aligned} 2 D i s &=\mathbb{E}\left[a_{\Delta}^{2}\right] \\ &=\mathbb{E}\left[\left(a_{\Delta}-\mu_{\Delta}+\mu_{\Delta}\right)^{2}\right] \\ &=\mathbb{E}\left[\left(a_{\Delta}-\mu_{\Delta}\right)^{2}\right]+2 \mathbb{E}\left[\left(a_{\Delta}-\mu_{\Delta}\right) \mu_{\Delta}\right]+\mathbb{E}\left[\mu_{\Delta}^{2}\right] \\ &=\sigma_{\Delta}^{2}+2 \mu_{\Delta}\left(\mathbb{E}\left[a_{\Delta}\right]-\mu_{\Delta}\right)+\mu_{\Delta}^{2} \\ &=\sigma_{\Delta}^{2}+\mu_{\Delta}^{2} \end{aligned} 2Dis=E[aΔ2]=E[(aΔμΔ+μΔ)2]=E[(aΔμΔ)2]+2E[(aΔμΔ)μΔ]+E[μΔ2]=σΔ2+2μΔ(E[aΔ]μΔ)+μΔ2=σΔ2+μΔ2

如果 2 Dis  = σ Δ 2 + μ Δ 2 = ( σ 1 − σ 2 ) 2 + ( μ 1 − μ 2 ) 2 = 0 2 \text { Dis }=\sigma_{\Delta}^{2}+\mu_{\Delta}^{2}=\left(\sigma_{1}-\sigma_{2}\right)^{2}+\left(\mu_{1}-\mu_{2}\right)^{2}=0 2 Dis =σΔ2+μΔ2=(σ1σ2)2+(μ1μ2)2=0,那就意味着方差σ和均值μ相等,进而意味着两个高斯分布相等。以上证明是模型结构的基础之一。

5.2、后验分布鉴别器

鉴别器输出潜在向量z的后验分布。其使用两个没有激活函数的全连接层输出多元高斯分布的两个因子,每个维度通过重新参数化技巧相互独立。频谱归一化(Spectral Normalization )应用于鉴别器的每一层,用于稳定训练。
已知 μ ∈ R b × d \mathbf{μ} \in \mathbb{R}^{b \times d} μRb×d σ ∈ R b × d \mathbf{σ} \in \mathbb{R}^{b \times d} σRb×d,b表示batchsize,d是高斯分布的维数。

给定一批图像 x ∈ R b × h × w × c \mathbf{x} \in \mathbb{R}^{b \times h \times w \times c} xRb×h×w×c,鉴别器同时输出μ和σ,而 Z ∈ R b × d \mathbf{Z} \in \mathbb{R}^{b \times d} ZRb×d,后验分布可以表示为 D ( x ) = N ( z ; μ , σ 2 I ) D(\mathbf{x})=\mathcal{N}\left(\mathbf{z} ; \boldsymbol{\mu}, \sigma^{2} \mathbf{I}\right) D(x)=N(z;μ,σ2I),其中x可以表示真实图像分布或者生成的图像分布。构造两个先验分布 P a = N ( μ a , σ a 2 I ) P_{a}=\mathcal{N}\left(\boldsymbol{\mu}_{\boldsymbol{a}}, \sigma_{a}^{2} \mathbf{I}\right) Pa=N(μa,σa2I) P b = N ( μ b , σ b 2 I ) P_{b}=\mathcal{N}\left(\boldsymbol{\mu}_{\boldsymbol{b}}, \sigma_{b}^{2} \mathbf{I}\right) Pb=N(μb,σb2I),将LSGAN的损失推广到分布版本,鉴别器的损失可以描述如下:
L D = 1 2 E x ∼ p data  ( x ) [ ( D ( x ) − P b ) 2 ] + 1 2 E x ∼ p g ( x ) [ ( D ( x ) − P a ) 2 ] , \begin{aligned} \mathcal{L}_{D}=& \frac{1}{2} \mathbb{E}_{\mathbf{x} \sim p_{\text {data }}(\mathbf{x})}\left[\left(D(\mathbf{x})-P_{b}\right)^{2}\right]+ \frac{1}{2} \mathbb{E}_{\mathbf{x} \sim p_{g}(\mathbf{x})}\left[\left(D(\mathbf{x})-P_{a}\right)^{2}\right], \end{aligned} LD=21Expdata (x)[(D(x)Pb)2]+21Expg(x)[(D(x)Pa)2],

其中,第一项缩短了给定真实图像的后验D(x)与真实图像的虚拟实况真实先验Pb之间的距离。第二项缩短了后验给定生成图像与另一先前Pa之间的距离。

通过最小化LD,绘制后验给定的生成图像或真实图像,以匹配不同的先验,从而区分真实图像和伪图像。x中的真实信息∼ pdata(x)将用于促进生成过程。

5.3、使用后验分布提升生成器

发电机输入随机噪声ε从标准高斯采样以及来自后验给定真实图像的潜码z,输出生成的图像。

作者通过AdaIN与一些后验模块协调来重新指导发生器,同时,为了防止训练过程中真实信息的消失,引入了一个潜在的代码正则化器。

对抗损失定义为: L a d v = 1 2 E x ∼ p g ( x ) [ ( D ( x ) − P c ) 2 ] \mathcal{L}_{a d v}=\frac{1}{2} \mathbb{E}_{\mathbf{x} \sim p_{g}(\mathbf{x})}\left[\left(D(\mathbf{x})-P_{c}\right)^{2}\right] Ladv=21Expg(x)[(D(x)Pc)2],其中, P c = P a + P b 2 = N ( μ a + μ b 2 , ( σ a + σ b 2 ) 2 I ) P_{c}=\frac{P_{a}+P_{b}}{2}=\mathcal{N}\left(\frac{\mu_{a}+\mu_{b}}{2},\left(\frac{\sigma_{a}+\sigma_{b}}{2}\right)^{2} \mathbf{I}\right) Pc=2Pa+Pb=N(2μa+μb,(2σa+σb)2I)

传统上,生成器接收从标准高斯采样的随机噪声 ε ∈ R b × n ε∈ R^{b×n} εRb×n并用于产生图像,其中n是随机噪声的维数,基于这个设计,在给定 x ∼ p data  ( x ) x \sim p_{\text {data }}(x) xpdata (x),引入一个来自于后验判别输出的后验向量 z ∼ D ( x ) z \sim D(x) zD(x),与AdaIN一起将包含在后验中的真实信息嵌入到生成器的每一层当中。

后验模块是相互独立的完全连接的层,没有任何激活功能,如模型结构图所示,它们用于将 映射到对应于不同卷积信道的不同维度的特征。除了在每一层应用真实信息之外,后验模块还提供了根据不同卷积层的需求调整信息: s i p = P i ( z ) \mathrm{s}_{i}^{p}=\mathrm{P}_{i}(z) sip=Pi(z)

作者的方法使用后验特征作为AdaIN中的外部信息,生成器中使用的AdaIN层如下: AdaIN ⁡ ( m i , s i p ) = σ I N ( s i p ) m i − μ B N ( m i ) σ B N ( m i ) + μ I N ( s i p ) \operatorname{AdaIN}\left(\mathbf{m}_{i}, \mathbf{s}_{i}^{p}\right) = \sigma_{I N}\left(\mathbf{s}_{i}^{p}\right) \frac{\mathbf{m}_{i}-\mu_{B N}\left(\mathbf{m}_{i}\right)}{\sigma_{B N}\left(\mathbf{m}_{i}\right)}+\mu_{I N}\left(\mathbf{s}_{i}^{p}\right) AdaIN(mi,sip)=σIN(sip)σBN(mi)miμBN(mi)+μIN(sip)

作者首先利用BN对 m i m_i mi进行归一化,使其具有零均值和单位方差,然后用具有真实信息的 s i p s_i^p sip的均值和方差对其进行偏置和缩放,最后将后验特征向量z和AdaIN加入到生成器,以真实图像为样式参考,对生成的图像进行“样式转换”。

因此AdaIN通过改变特征的统计信息将真实信息融合到每一层。为了在训练过程中保留真实信息,作者提出了一个正则化器 L z L_z Lz,用于最小化后验给定生成图像和真实图像之间的距离: L z = E x g ∼ p g ( x ) , x r ∼ p data  ( x ) [ ∣ D ( x g ) − D ( x r ) ∣ ] \mathcal{L}_{z}=\mathbb{E}_{\mathbf{x}_{g} \sim p_{g}(\mathbf{x}), \mathbf{x}_{r} \sim p_{\text {data }}(\mathbf{x})}\left[\left|D\left(\mathbf{x}_{g}\right)-D\left(\mathbf{x}_{r}\right)\right|\right] Lz=Exgpg(x),xrpdata (x)[D(xg)D(xr)]

综上所述,生成器总的损失为: L G = L a d v + λ L z \mathcal{L}_{G}=\mathcal{L}_{a d v}+\lambda \mathcal{L}_{z} LG=Ladv+λLz

5.4、理论分析

讨论P2GAN和f散度之间的关系:

给定固定参数的生成器G,我们可以导出基于LSGAN的最优鉴别器: D ∗ ( x ) = P b p d a t a ( x ) + P a p g ( x ) p data  ( x ) + p g ( x ) D^{*}(\mathbf{x})=\frac{P_{b} p_{d a t a}(\mathbf{x})+P_{a} p_{g}(\mathbf{x})}{p_{\text {data }}(\mathbf{x})+p_{g}(\mathbf{x})} D(x)=pdata (x)+pg(x)Pbpdata(x)+Papg(x),当D最优时,正则化损失 L z L_z Lz为0,为了分析G的最佳值,将损失 L G L_G LG改写如下: C ( G ) = 1 2 E x ∼ p data  ( x ) [ ( D ( x ) − P c ) 2 ] + 1 2 E x ∼ p g ( x ) [ ( D ( x ) − P c ) 2 ] \begin{aligned} C(G)=& \frac{1}{2} \mathbb{E}_{\mathbf{x} \sim p_{\text {data }}(\mathbf{x})}\left[\left(D(\mathbf{x})-P_{c}\right)^{2}\right]+ \frac{1}{2} \mathbb{E}_{\mathbf{x} \sim p_{g}(\mathbf{x})}\left[\left(D(\mathbf{x})-P_{c}\right)^{2}\right] \end{aligned} C(G)=21Expdata (x)[(D(x)Pc)2]+21Expg(x)[(D(x)Pc)2],通过变换(详细见原文),最终得到: 2 C ( G ) = ( P b − P a ) 2 4 ∫ [ 2 p g − ( p data  + p g ) ] 2 p data  + p g d x = ( P b − P a ) 2 4 X Pearson  2 ( ( p data  + p g ) ∥ 2 p g ) \begin{aligned} 2 C(G) &=\frac{\left(P_{b}-P_{a}\right)^{2}}{4} \int \frac{\left[2 p_{g}-\left(p_{\text {data }}+p_{g}\right)\right]^{2}}{p_{\text {data }}+p_{g}} d x \\ &=\frac{\left(P_{b}-P_{a}\right)^{2}}{4} \mathcal{X}_{\text {Pearson }}^{2}\left(\left(p_{\text {data }}+p_{g}\right) \| 2 p_{g}\right) \end{aligned} 2C(G)=4(PbPa)2pdata +pg[2pg(pdata +pg)]2dx=4(PbPa)2XPearson 2((pdata +pg)∥2pg)
D ∗ ( x ) = P b p data  ( x ) + P a p g ( x ) p data  ( x ) + p g ( x ) = P b + P a 2 = N ( μ a + μ b 2 , ( σ a + σ b 2 ) 2 I ) D^{*}(\mathbf{x})=\frac{P_{b} p_{\text {data }}(\mathbf{x})+P_{a} p_{g}(\mathbf{x})}{p_{\text {data }}(\mathbf{x})+p_{g}(\mathbf{x})}=\frac{P_{b}+P_{a}}{2}=\mathcal{N}\left(\frac{\boldsymbol{\mu}_{\boldsymbol{a}}+\boldsymbol{\mu}_{\boldsymbol{b}}}{2},\left(\frac{\sigma_{a}+\sigma_{b}}{2}\right)^{2} \mathbf{I}\right) D(x)=pdata (x)+pg(x)Pbpdata (x)+Papg(x)=2Pb+Pa=N(2μa+μb,(2σa+σb)2I)

六、实验

6.1、实验设置

  1. 数据集:
    CIFAR10:10个类中的60000张32×32×3的图像,每个类有6000张图像;CelebA:由202599张名人照片组成,40种面部特征有很大差异。
  2. 实验细节:
    Adam:β1=0.0,β2=0.999,batchsize b=32,λ=10,channel size c=64;
  3. 评价指标:
    Frechet Inception Distance :FID计算生成的图像和真实图像之间的Wasserstein-2距离,这是一个更为原则和全面的度量。FID越低表示图像质量越好。具体原理可以看:FID定量评价指标分析笔记

6.2、实验结果

下表为CIFAR10和CelebA的FID分数,可以看到P2GAN的表现性能优越。
在这里插入图片描述
下面是部分生成的样本:
在这里插入图片描述

在这里插入图片描述

除此之外,作者还做了大量的分析实验和消融研究,详情可以看原文。

七、总结

文章提出了一种新的GAN变体,称为P2GAN,它通过将图像映射到多元高斯分布来修改鉴别器以产生丰富的真实信息,并通过AdaIN和真实信息增强生成器。

作者将LSGAN的损失修改为分布版本,并从理论上证明了收敛性。

实验中的收敛性分析表明了该训练方法的有效性,而插值结果表明模型已经学习到了一个鲁棒且充分的潜在流形结构,P2GAN在高维多模态数据集上取得了与最先进模型相当的结果。

最后

💖 个人简介:人工智能领域研究生,目前主攻文本生成图像(text to image)方向

📝 关注我:中杯可乐多加冰

🔥 限时免费订阅:文本生成图像T2I专栏

🎉 支持我:点赞👍+收藏⭐️+留言📝


http://chatgpt.dhexx.cn/article/316X9C4M.shtml

相关文章

先验、后验与似然

在学习SLAM 14讲第六章时,看到三个概念,有些不太了解,查阅资料后有了一些自己的理解。 三个概念存在于贝叶斯公式中 表示先验概率Prior,表示后验概率posterior,表示似然likelihood 上式可以写为 下面分别对三个概念进…

Prior 、Posterior 和 Likelihood 的理解与几种表达方式

Prior 、Posterior 和 Likelihood 的理解与几种表达方式 (下载图片可以看大图。)

Windows作为NTP同步时间的服务器时的设置

1.先关闭Windows系统自带的防火墙; 2. 在桌面上右击“计算机”, 选择“管理”, 然后选择“服务”。 具体如图所示 2. 选中“Windows Time”,设置为开启,这样就可以将“Windows Time”这一个服务打开。 3. “开始”--》“运…

NTP时钟服务器推荐-国内时间服务器顶尖设备

电子钟时间服务器在物联网应用中起到了关键的作用,它能够为各种智能设备提供准确的时间参考,确保设备之间的协同工作和数据的准确传输。无论是智能家居、智能工厂还是智慧城市,电子钟时间服务器都是不可或缺的一部分。 一、产品卖点 时间服…

NTP同步时间失败。Linux作为客户端,Windows作为NTP时钟源服务端。

使用windows作NTP时钟源,NTP同步时间失败 【关 键 词】:NTP,时钟源,windows时钟源,同步时间失败 【故障类型】:操作维护->其他 【适用版本】:Linux 【问题描述】:windows做时钟…

如何在windows10 搭建 NTP 时间服务器

windows本身是可以作为NTP时间同步服务器使用的,本文介绍一下如何在win10上配置NTP时间同步服务器。 如何在windows10 搭建 NTP 时间服务器 工具/原料 系统版本:win10版本 [10.0.17134.706] 方法/步骤 使用组合键WIN R 启动运行窗口,在…

Linux服务器NTP客户端时钟同步配置方法

前提说明:配置客户端NTP时候,必须要有一台时钟服务器,可以是服务器搭建的,也可以是购买的时钟设备。我这里使用临时的时钟服务器IP地址10.10.4.100 步骤如下: 1 首先在客户端服务器中ping一下时钟的IP地址是否网络可通…

NTP时钟服务器(PTP服务器)无法同步的排查方法

NTP时钟服务器(PTP服务器)无法同步的排查方法 NTP时钟服务器(PTP服务器)无法同步的排查方法 NTP系统是典型的C-S模型,一般将整个系统分为服务器,网络和客户端三个区域,因NTP时间服务器一般在出厂时已经测试,并设置为可使用&#…

NTP时间服务器同步时钟系统安装汇总分享

在现代科技发展的背景下,各种设备的时间同步变得越来越重要。同步时钟管理系统的应用可以让多个设备在时间上保持一致,提高工作效率和安全性,为各个行业的发展提供了重要的支持。 一、同步时钟系统介绍 同步时钟管理系统的应用范围非常广泛&…

关于NTP时间服务器

NTP(Network Time Protocol) 网络时间协议,工作在UDP的123端口上。是用来使计算机时间同步化的一种协议,它可以使计算机对其服务器或时钟源(如石英钟,GPS等等)做同步化,它可以提供高精准度的时间校正(局域网…

R语言产生对角阵、次对角阵等矩阵及矩阵运算

R语言产生各种类型的矩阵及矩阵运算 R语言产生一般的矩阵R语言产生单位阵R语言产生次对角阵R语言矩阵的常见运算 R语言产生一般的矩阵 # 依行排列,产生3行5列的矩阵 A matrix(c(1:15),3,5,byrowT)R语言产生单位阵 #产生对角线元素为1的6x6的单位阵 A diag(6) #产…

python课程设计矩阵对角线之和_python对角矩阵

广告关闭 腾讯云11.11云上盛惠 ,精选热门产品助力上云,云服务器首年88元起,买的越多返的越多,最高返5000元! #生成一个3*3的0-10之间的随机整数矩阵,如果需要指定下界则可以多加一个参数data5mat(random.…

SimpleMind Pro(电脑版思维导图软件)官方中文版V1.30.0.6068下载 | 电脑版思维导图软件哪个好用?

​ Simplemind Pro 是一款优秀的跨平台电脑版思维导图软件领导者,全球超过1000万用户,可帮助用户组织想法、记住信息并产生新想法,允许用户将主题放置在自由格式布局中的任何位置,或者使用各种自动布局之一,非常…

免费的思维导图软件都有哪些?

思维导图时当下非常热门的软件,学生可以用它来梳理课程知识、帮助巩固记忆;职场打工人可以用它来整理思路、列举待办清单、展示方案等等。但是,现在大部分思维导图软件都需要收费,作为钱包紧紧的新时代人类,还剩下哪些…

免费的思维导图软件哪个好?这篇文章告诉你

随着现在工作和生活节奏的加快,大家都在追求高效率高质量的做事方法,比如在与领导汇报年终报告的时候,只靠口头讲述,对方很难一下子接收到。若我们将输出的内容整理成思维导图的形式,边展示边讲述,对方就能…

画思维导图哪个软件好用

时至今日,思维导图越来越受到人们的喜爱,它是一种实用的思维工具,无论是在事项安排还是读书笔记方面,都有着出众的表现。MindMaster,即亿图思维导图,是由亿图软件公司独立开发的一款跨平台、多功能的思维导…

最实用的免费思维导图软件哪个最好用、用户最多

现在的思维导图其实都还蛮适合程序员的,今天给大家介绍几个我用过并且还觉得使用挺好的思维导图。 MindManager应该算是目前最好的思维导图软件了,尤其是非常美观的交互界面非常养眼。 这几年其实国产软件的整体实力和用户体验是在稳步提升的&#xff0…

思维导图软件哪个好?试用百款导图软件只留下这15个

​思维导图软件哪个好? 这是许多第一次使用思维导图软件的朋友无法回避的问题,看着眼前有数百款思维导图软件,数量多到让人患上选择困难症,不知道要选哪个导图软件好,这就好比在繁星点点的夜空中寻找属于自己的那颗星&…

小白都想知道的思维导图软件哪个好,答案在这里

如今大家想跟他人分享自己的想法、方案等内容时,是不是经常出现自己在这一通激情演讲,但是最后对方一头雾水,甚至是没有很理解自己想表达的东西的情况发生? 其实我有一个好方法能解决这一现象,那就是把我们自己的想法…

思维导图软件哪个好?不要错过这份思维导图软件合集

小编最近发现了一个可以来做购物清单的简单工具:思维导图软件! 思维导图的主要用途就是帮助我们理清思绪、增强计划和想法的逻辑性,可以用来规划任务、管理时间、将想法书面化,非常实用。小编为大家准备了三款个人感觉非常实用的…