高斯玻色采样enhance量子近似优化算法

article/2025/11/7 13:41:25

上篇博文,我们已经接触了QAOA量子近似优化算法,我们已经知道近似优化算法一般用于求解组合优化问题。这里我们再说明一下什么是组合优化问题:
给定一个数据集 X = { x 1 , x 2 , . . . x N } X={{x_{1},x_{2},...x_{N}}} X=x1,x2,...xN,和一个映射函数 f f ,令 y i = f ( x i ) y_{i}=f(x_{i}) yi=f(xi) Y = { y 1 , y 2 , . . . y N } Y={{y_{1},y_{2},...y_{N}}} Y=y1,y2,...yN,目标是找到一个元素 x ∗ ∈ X x^{*}\in X xX,使得 f ( x ∗ ) > f ( x ) , x ∈ X f(x^{*})>f(x),x\in X f(x)>f(x),xX,即找到最大的一个 y y y
这篇博文,打算就依照参考论文[1]的步骤一步步的为大家解读,如果在解读过程中有问题欢迎大家评论。希望我们都能够共同进步,努力成为一名合格的科研dog。
注:量子近似优化算法有很多种,解读论文中将场景设定在随机优化算法里面。(笔者认为,对于解可以用向量或者矩阵表示的问题,可以采用随机优化的算法来求近似最优解。)

技术总结

这篇论文,意在突出Gaussian boson sampling在随机优化问题上的优势——在解决Max-Haf的问题上,通用方法(模拟退火、贪婪算法)使用的是统一采样,作者将基于GBS的比例采样应用到这两种方法上,证明了GBS 比例采样的天然优势。因为据作者分析,经过GBS比例采样得到子矩阵,更有可能计算出Max-Haf值。具体推到请看下文~

玻色采样

至今,提出的玻色采样装置有很多种,包括scattershot boson sampling 和 Gaussian boson sampling. 玻色采样的概念是在2014年被首次提出,其具体过程可以描述如下:
图1
其中输入端可以是玻色子 ∣ 1 0 ⟩ . . . ∣ 0 m ⟩ |1_{0}\rangle...|0_{m}\rangle 10...0m,然后经过线性光学网络 U U U的作用,可以输出各种玻色配置。在光子探测器未探测光子之前,各种输出配置会处于叠加状态,其Hilbert空间可以达到 ( n m + n − 1 ) \left( \begin{array}{c} n \\ m+n-1 \\ \end{array} \right) (nm+n1)大小, m m m是模数, n n n表示光子数。当然对于Gaussian boson sampling来说,输入端输入的不是玻色子,而是Gaussian state。
由于玻色采样装置输出配置的概率分布和积和式(NP-Hard问题)有关,因此在经典计算机上很难以模拟出来。所以玻色采样可能具有量子霸权的前景,但是在实际应用中似乎还没有崭露头角。
玻色采样的概率分布之所以经典难以模拟,是因为概率分布涉及到超高复杂度的计算。对于玻色采样,其配置概率计算涉及矩阵积和式(Permanent);对于高斯玻色采样,其配置概率计算涉及矩阵Hafinian。这两者,前者是经典NP-Hard问题,后者是经典#P-Hard问题。我们可以看下,Permanent和Hafinian定义是什么样子的:
给定矩阵 X 2 m ∗ 2 m X_{2m*2m} X2m2m,其积和式和Hafinian计算分别如下:

  • Permanent
    P e r ( X 2 m ∗ 2 m ) = ∑ σ ∈ P E P 2 m ∏ j = 1 2 m x j , σ j Per(X_{2m*2m})=\sum_{\sigma\in PEP_{2m}}\prod_{j=1}^{2m}x_{j,\sigma_{j}} Per(X2m2m)=σPEP2mj=12mxj,σj

  • Hafinian
    H a f ( X 2 m ∗ 2 m ) = ∑ σ ∈ P E P 2 m ∏ j = 1 m x σ 2 j − 1 , σ 2 j Haf(X_{2m*2m})=\sum_{\sigma\in PEP_{2m}}\prod_{j=1}^{m}x_{\sigma_{2j-1},\sigma_{2j}} Haf(X2m2m)=σPEP2mj=1mxσ2j1,σ2j
    其中 P E P 2 m PEP_{2m} PEP2m表示的是元素 1 , 2 , . . . , 2 m {1,2,...,2m} 1,2,...,2m的全排列形成的集合。

当m=2时,
P e r ( X 4 ∗ 4 ) = ∑ σ ∈ P E P 4 ∏ j = 1 4 x j , σ j = ∑ σ ∈ P E P 4 x 1 , σ 1 x 2 , σ 2 x 3 , σ 3 x 4 , σ 4 Per(X_{4*4})=\sum_{\sigma\in PEP_{4}}\prod_{j=1}^{4}x_{j,\sigma_{j}}=\sum_{\sigma\in PEP_{4}}x_{1,\sigma_{1}}x_{2,\sigma_{2}}x_{3,\sigma_{3}}x_{4,\sigma_{4}} Per(X44)=σPEP4j=14xj,σj=σPEP4x1,σ1x2,σ2x3,σ3x4,σ4

H a f ( X 4 ∗ 4 ) = ∑ σ ∈ P E P 4 ∏ j = 1 2 x σ 2 j − 1 , σ 2 j = ∑ σ ∈ P E P 4 x σ 1 , σ 2 x σ 3 , σ 4 Haf(X_{4*4})=\sum_{\sigma\in PEP_{4}}\prod_{j=1}^{2}x_{\sigma_{2j-1},\sigma_{2j}}=\sum_{\sigma\in PEP_{4}}x_{\sigma_{1},\sigma_{2}}x_{\sigma_{3},\sigma_{4}} Haf(X44)=σPEP4j=12xσ2j1,σ2j=σPEP4xσ1,σ2xσ3,σ4
从公式中可以看出,Per的复杂度计算是高于Haf的,即NP-Hard得计算难度难于#P-Hard问题。
玻色采样的理念就补充到这里了,如果没有理解的伙伴,可以多多查找一些文献,比如文献[2]。

统一采样和比例采样

  • 统一采样(uniform samples)
    每个值 x i x_{i} xi被采样的概率均为 1 / N 1/N 1/N,即 P U ( x i ) = 1 / N P_{U}{(x_{i})}=1/N PU(xi)=1/N.那么总目标值 Y Y Y的期望值为:
    E ( Y ) = ∑ i = 1 N y i P ( y i ) = ∑ i = 1 N y i ∗ 1 / N = ∥ y ∥ 1 N E(Y)=\sum_{i=1}^{N}y_{i}P(y_{i})=\sum_{i=1}^{N}y_{i}*1/N=\frac{\|y\|_{1}}{N} E(Y)=i=1NyiP(yi)=i=1Nyi1/N=Ny1.

  • 比例采样
    每个值 x i x_{i} xi被采样的概率和目标值 y i y_{i} yi在总目标值的概率相等,即 P ( x i ) = y i ∑ i = 1 N y i P(x_{i})=\frac{y_{i}}{\sum_{i=1}^{N}y_{i}} P(xi)=i=1Nyiyi,所以总目标值 Y Y Y的期望值为:
    E ( Y ) = ∑ i = 1 N y i P ( y i ) = ∑ i = 1 N y i y i ∑ i = 1 N y i = ( ∥ y ∥ 2 ) 2 ∥ y 1 ∥ E(Y)=\sum_{i=1}^{N}y_{i}P(y_{i})=\sum_{i=1}^{N}y_{i}\frac{y_{i}}{\sum_{i=1}^{N}y_{i}}=\frac{(\|y\|_{2})^{2}}{\|y_{1}\|} E(Y)=i=1NyiP(yi)=i=1Nyii=1Nyiyi=y1(y2)2.
    因为:
    图2
    其中 p < q p< q p<q.所以:
    图3
    这个不等式说明了,比例采样永远不会比统一采样要差。而Gaussian boson sampling属于比例采样。

Gaussian玻色采样求解Max-Haf问题

  • The Max-Haf Problem
    定义如下:
    图4
    其中B是unitary矩阵,对应于高斯玻色采样装置中的光学线性网络。 B S B_{S} BS是B根据配置 S S S所得到的子矩阵。
    图5
    Gaussian玻色采样对应的配置 S S S,指的是可能的输出结果,如下, s i ∈ 0 , 1 s_{i} \in {0,1} si0,1代表输出端口有0个光子或者1个光子。
    图6
    那么,配置 S S S的概率函数为:
    图7
    可以设想,如果得到的某个配置 S S S概率越高,也就说明子矩阵 H a f ( B S ) Haf(B_{S}) Haf(BS)越大,同时也可以求出其值。对于经典计算机,可能要花极大的计算量来计算的Haf值,利用Gaussian boson sampling就可以通过简单地比例采样(这里我认为是,Gaussian boson sampling的输出其实就是一种比例采样得到的结果,哪个占比比较多,对应的结果输出的概率也就越大)来求出相应的值。
    但是,我们会有疑问,难道经典计算机就不可以使用采样的方法来计算矩阵的Haf值吗?答案其实是可以的,但是由于没有先验知识,我们并不知道哪些采样可以使得矩阵获得Max-Haf,所以在经典计算机上,一般使用uniform sampling。
    然后Arrazola等人,就在基于GBS的比例采样和统一采样之间进行了比较:
    给定一个symmertric Gaussian random matricx X X X
    图8

  • uniform sampling得到的 ∣ H a f ( B S ) ∣ 2 |Haf(B_{S})|^{2} Haf(BS)2期望计算如下:
    图9

  • GBS sampling得到的 ∣ H a f ( B S ) ∣ 2 |Haf(B_{S})|^{2} Haf(BS)2期望计算如下:
    图10
    作者通过两者之间的最终比值:
    图11

发现对于所有的 k > = 2 k>=2 k>=2,GBS sampling 下的Max-Haf比uniform sampling下的要更大概率出现,即所得到的 ∣ H a f ( B S ) ∣ 2 |Haf(B_{S})|^{2} Haf(BS)2期望值更大一点。随着光子数 k k k的增多,这种优势会更加明显。

在随机优化算法中,会在两种方法中应用随机性:exploration 和tweaking。
什么是exploration?
在随机优化算法里面,通常会执行这个步骤来随即均匀地选择子矩阵,即选择认为是一些好的子矩阵;在GBS-Max-Haf这个例子里,则是对应到随机地选择一组子矩阵 B S B_{S} BS
什么是tweaking?

可以随机修改样本,并生成一个新的样本;在GBS-Max-Haf这个例子中,因为要保证光子数 k k k不变,所以只能改变配置 S S S中非零序列的位置
作者定义了GBS如何在exploration和tweaking中的使用:
在这里插入图片描述
在这里插入图片描述

G B S − − E x p l o r e ( k , B ) GBS--Explore(k,B) GBSExplore(k,B)的定义是比较好理解的:就是在条件GBS分布下,采样得到一个子矩阵 B S B_{S} BS.
G B S − T w e a k ( S , ℓ , B ) GBS-Tweak(S,\ell,B) GBSTweak(S,,B)的定义:首先是生成了带有 ℓ + L \ell+L +L个1的二进制序列 S ′ S^{'} S;
然后生成了带有 L L L个1的二进制序列 T ′ T^{'} T。而且 S ′ S^{'} S T ′ T^{'} T之间,1的位置不会有重叠;最后得到带有 k ′ ( < = k ) k^{'}(<=k) k(<=k)个1的二进制序列 R = S ′ + T ′ R=S^{'}+T^{'} R=S+T(这也就是为什么 S ′ S^{'} S T ′ T^{'} T之间不能有重叠的原因),其中 ℓ ∈ 0 , 2 , 4... , k − 2 \ell \in{0,2,4...,k-2} 0,2,4...,k2, L ∈ 0 , 1 , . . . , k − ℓ − 1 L\in{0,1,...,k-\ell-1} L0,1,...,k1
接下来,作者给出了基于GBS求解Max-Haf的两种随机优化算法:simulated annealing 和 greedy algorithms。

  • Simulated annealing(模拟退火算法)
    图12
  • Greedy algorithm(贪婪算法)
    图13

Discussion

作者最后提出了一个比较有吸引的研究方向:
在这里插入图片描述

即,是否可以通过机器学习来为子矩阵优化以外的问题,生成比例分布。
思考:还能不能为GBS找到求解Max-Haf问题,以外的随机优化算法上的应用呢?同文作者,又研究了一篇利用GBS enhance 寻找密集子图问题上[3].

[1]Arrazola J M, Bromley T R, Rebentrost P. Quantum approximate optimization with Gaussian boson sampling[J]. Physical Review A, 2018, 98(1): 012322.
[2]Gard B T, Motes K R, Olson J P, et al. An introduction to boson-sampling[M]//From atomic to mesoscale: The role of quantum coherence in systems of various complexities. 2015: 167-192.
[3]J. M. Arrazola and T. R. Bromley, Physical Review Letters 121, 030503 (2018).


http://chatgpt.dhexx.cn/article/2ibuGxf9.shtml

相关文章

matlab 绘制高斯(Gaussan)函数图像

高斯函数如下&#xff1a; G a u s s a n 1 2 π σ e − ( x − μ ) 2 2 σ 2 Gaussan \frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{(x-\mu)^2}{2\sigma^2}} Gaussan2π ​σ1​e−2σ2(x−μ)2​ 使用 MATLAB 编写高斯函数&#xff0c;需传入 x , μ , σ x,\mu,\sigma x,μ,…

高斯平滑滤波器(Gaussian Smoothing Filter)

一、图像滤波的基本概念 图像常常被强度随机信号&#xff08;也称为噪声&#xff09;所污染。一些常见的噪声有椒盐&#xff08;Salt & Pepper&#xff09;噪声、脉冲噪声、高斯噪声等。椒盐噪声含有随机出现的黑白强度值&#xff0e;而脉冲噪声则只含有随机的白强度值&am…

高斯滤波(Gauss filtering)

1.概念介绍 高斯滤波是一种线性平滑滤波&#xff0c;适用于消除高斯噪声&#xff0c;广泛应用于图像处理的减噪过程。  通俗的讲&#xff0c;高斯滤波就是对整幅图像进行加权平均的过程&#xff0c;每一个像素点的值&#xff0c;都由其本身和邻域内的其他像素值经过加权平均后…

Matlab_用高斯赛德尔(Gaoss-Seidel)迭代法解线性方程组

1.程序代码 function xGauss(A,b,x0,ep,N) %用途&#xff1a;用高斯迭代法解线性方程组Axb %A为系数矩阵&#xff0c;b为右端向量&#xff0c;x0为初始向量&#xff08;默认零向量&#xff09; %ep为精度&#xff08;1e-6&#xff09;&#xff0c;N为最大迭代次数&#xff…

gaussian_filter( )函数(高斯滤波)

对一个数进行高斯滤波&#xff08;模糊&#xff09;可以理解成将该数取附近矩形窗口所有值的加权平均值&#xff0c;距离处理数越近的点权重越大&#xff0c;距离处理点越远的点权重越小。因此如果取的矩形窗口越大&#xff0c;那么对处理点的模糊效果越强烈。 上图&#xff0c…

Gauss-Seidel迭代法的C++实现

高斯赛德尔迭代法大家可以从网站上找到相关的公式推导&#xff0c;这里给出它的C算法实现和运行的结果。 #include<iostream> #include<math.h> using namespace std;int n; //定义全局变量 double a[100…

高斯平滑

&#xfeff;&#xfeff; 高斯平滑 Common Names: Gaussian smoothing 简述&#xff1a; 高斯平滑操作是一种2-D的卷积操作&#xff0c;应用于模糊图像中&#xff0c;去除细节和噪声。从这个意思上说&#xff0c;它类似于均值滤波器&#xff0c;但是使用的是不同的内核&#…

高斯平滑 高斯模糊 高斯滤波器 ( Gaussian Smoothing, Gaussian Blur, Gaussian Filter ) C++ 实现

发展到现在这个平滑算法的时候, 我已经完全不知道如何去命名这篇文章了, 只好罗列出一些关键字来方便搜索了. 在之前我们提到过了均值滤波器, 就是说某像素的颜色, 由以其为中心的九宫格的像素平均值来决定. 在这个基础上又发展成了带权的平均滤波器, 这里的高斯平滑或者说滤波…

Gaussian Smoothing(高斯平滑)

高斯平滑操作是一个二维卷积操作&#xff0c;用于**“模糊”**图像&#xff0c;去除细节和噪音。它类似于均值滤波器(假如3X3&#xff0c;则全部相加取均值&#xff0c;即成为中间点的像素值)&#xff0c;但它使用不同的核表示高斯驼峰的形状。 二维高斯公式 平均值(0&#xf…

高斯-赛戴尔(Gauss-Seidel)迭代法及算法实现

1、高斯-赛戴尔迭代法的定义以及表达形式 以下列方程组为例&#xff1a; 在雅克比迭代法中&#xff0c;并没有对新算出的分量进行充分利用&#xff0c;一般来说&#xff0c;这些新算出计算的结果要比上一步计算的结果精确。 对上式第二个方程组&#xff0c;第一行式子算出的x值…

常用技术指标之一文读懂RSI指标

什么是RSI指标&#xff1f; RSI (Relative Strength Index) 中文名又叫相对强弱指标&#xff0c;由韦尔斯.怀尔德(Welles Wilder)首创&#xff0c;发表在他的《技术交易系统新思路》一书中&#xff08;1978年版&#xff09; RSI指标基本原理&#xff1a; 通过测量一段时间间内…

量化投资常用技能——指标篇3:详解RSI指标,及其代码实现和绘图

量化投资常用技能 系列文章目录 我们已经介绍了三篇关于量化投资方面绘图的文章和两篇指标类的推导和介绍的文章&#xff0c;大家有兴趣可以了解一下 绘图篇 量化投资常用技能——绘图篇 1&#xff1a;绘制股票收盘价格曲线和ochl烛状图量化投资常用技能——绘图篇 2&#xf…

缠论指标(全网最精准)

支持平台 01 通达信(电脑手机&#xff09; 通达信版本简介 02 01 基础版功能&#xff1a; 支持缠论自动分笔&#xff0c;自动线段&#xff0c;显示笔中枢&#xff08;蓝色&#xff09;&#xff0c;线段中枢&#xff08;橙色&#xff09;&#xff0c;支持笔段中枢混合显示…

使用bind搭建权威DNS、智能DNS

DNS的解析过程&#xff1a;&#xff08;以www.qq.com为例说明&#xff09; 1、在浏览器中输入www.qq.com域名&#xff0c;操作系统会先检查自己本地的hosts文件是否有这个网址映射关系&#xff0c;如果有&#xff0c;就先调用这个IP地址映射&#xff0c;完成域名解析。 2、如…

DNS服务器的搭建

DNS&#xff08;域名系统&#xff09;&#xff0c;它用于TCP/IP网路。它提供的服务是用来将主机名和域名转换为IP地址的工作。 DNS常用术语 1. DNS服务器&#xff1a;提供域名解析服务的主机。 2. DNS客户机&#xff1a;任何联网的需要查询主机域名信息的主机。 3. 正向解析…

部署搭建DNS服务器

部署搭建DNS服务器 域名服务器DNS域名解析流程域名类型 DNS主服务器搭建正向解析配置配置正向区域数据文件DNS服务器测试 反向解析配置配置反向区域数据文件DNS服务器测试 DNS从服务器搭建正向反向解析配置DNS服务器测试 域名服务器 DNS&#xff08;Domain Name Server&#x…

智能DNS服务器搭建

前期准备 查看IP [rootlocalhost ~]# ip a | grep ens 2: ens32: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000 inet 192.168.200.111/24 brd 192.168.200.255 scope global ens32 3: ens34: <BROADCAST,MULTICAST…

DNS:快速搭建公司内网DNS解析服务器

背景 是这样的&#xff0c;公司办公室有小机房&#xff0c;研发测试开发环境在这&#xff0c;但是CTO吧&#xff0c;觉得测试环境通过ip访问太复杂&#xff0c;难记&#xff0c;通过黄页打开觉得太low&#xff0c;虽然办公室出口也有公网ip&#xff0c;直接可以解析进来&#…

DNS搭建

环境 server1&#xff1a;bigpeng1 IP&#xff1a;172.25.1.101 GW&#xff1a;172.25.1.1 DNS&#xff1a;172.25.1.101 server2&#xff1a;bigpeng2 IP&#xff1a;172.25.1.102 GW&#xff1a;172.25.1.1 DNS&#xff1a;172.25.1.101 client&…

基于bind的DNS服务器搭建

文章目录 域名分类域名解析顺序搭建DNS服务器 域名分类 国家域名可分为顶级域名、二级域名&#xff0c;三级域名。 按管理机构的不同分为.com、.net、.org、.cc 、.tv等根域为后缀的域名 缓存域名服务器&#xff1a;通过向其他域名服务器查询获得域名解析记录&#xff0c;将查…