组合最优化

article/2025/11/9 10:15:38

组合最优化(参考资料)

最优化问题

​ 最优化问题涉及的应用领域很广,问题的种类与性质繁多,归纳起来,可分为函数优化问题组合优化问题两大类。其中函数最优化问题的解是一定区域内连续取值的量,而组合优化问题的解则是离散取值的量。
在这里插入图片描述

  • 线性规划问题

    ​ 首先要确定一组具有明确含义的变量,称之为决策变量。问题的目标是选取这些决策变量的值使得一个函数取得最大值和最小值,此函数称之为目标函数。并且利用决策变量把问题的条件表示成等式或不等式,并称这些等式或不等式为约束条件。如果目标函数是决策变量的线性函数,而且约束条件也都是关于决策变量的线性等式或线性不等式,则相应的数学问题就称为一个线性规划问题

    • 常用解决方法
      • 图解法
      • 单纯形法
  • 非线性规划问题

    ​ 非线性问题也是一类优化问题。在这类问题中,目标函数或约束函数至少有一个不是决策变量的线性函数。

    • 常用解决方法
      • 无约束问题:变量轮换法、模式搜索法、可变单纯形法、最速下降法、牛顿法、共轭梯度法、拟牛顿法等
      • 有约束问题:近似规划法、可行方向法、罚函数法、乘子法等
  • 对比:线性规划是理论和求解方法都比较成熟,且具有广泛应用的一个运筹学分支;非线性规划问题相对于线性规划问题而言更具一般性,求解难度更大,在工程实际中也更普遍。

组合最优化问题

概念

​ 组合优化是数学优化的一个子领域,与运筹学、算法理论和计算复杂性理论有关。组合优化是一个主题,包括从有限的对象集中找到最佳对象。在许多这样的问题中,穷举搜索是难以处理的。它适用于那些可行解集是离散的或可以简化为离散的优化问题的域,其目标是找到最佳解。

从广义上讲,组合优化问题是涉及从有限的一组对象中找到"最佳"对象的问题。“最佳”是通过给定的评估函数来测量的,该函数将对象映射到某个分数或者成本,目标是找到最高评估分数和最低成本的对象。组合优化往往涉及排序分类筛选等问题。以离散的组合优化问题来讲,目标就是从所有可行解中寻找一个集合、一个排列或者一个图(参考)。如下图所示,旅行商问题(TSP)就是一个经典的组合优化问题。
在这里插入图片描述


数学形式

​ 组合优化问题的数学表达形式如下:
m a x f ( x ) s . t . g ( x ) ≥ 0 x ∈ D \large max\;f(\pmb x)\\\large s.t.\;g(\pmb x)\geq0\\\large \pmb x\in D maxf(xxx)s.t.g(xxx)0xxxD
​ 它由目标函数 f ( x ) \;f(x)\; f(x),约束函数 g ( x ) \;g(x)\; g(x)和决策变量 x \;x\; x及其取值范围 D \;D\; D等构成,这里 D \;D\; D为有限个点的集合。若令 F = { x ∣ x ∈ D , g ( x ) ≥ 0 } \;F=\{\pmb x\vert \pmb x\in D,g(\pmb x)\geq0\}\; F={xxxxxxD,g(xxx)0},则一个组合优化问题可用三元组 ( D , F , f ) \;(D,F,f)\; (D,F,f)表示,如果 x ∗ ∈ F \pmb x^\ast\in F xxxF使得 f ( x ∗ ) = m a x { f ( x ) ∣ x ∈ F } \;f(\pmb x^\ast)=max\;\{f(x)\vert \pmb x\in F\}\; f(xxx)=max{f(x)xxxF},则称 x ∗ \;\pmb x^\ast\; xxx为该问题的全局最优解。


分类

​ 一般来说,组合优化问题可分为无约束组合优化问题有约束组合优化问题。实际上,我们很容易看到,无约束组合优化问题是有约束组合优化问题的一个子集(约束函数 g ( x ) \;g(x)\; g(x)对取值范围 D \;D\; D无影响,即 D = F D=F D=F


经典问题示例

旅行商问题(Travelling salesman problem,TSP)

经典旅行商问题

​ 假设有一个旅行商人要拜访N个城市,他必须选择所要走的路径,路径的限制是每个城市只能拜访一次,而且最后要回到原来出发的城市。路径的选择目标是要求得的路径路程为所有路径之中的最小值。

​ 该问题于 1930 年首次提出,是优化中研究最深入的问题之一。它被用作许多优化方法的基准。尽管这个问题在计算上很困难,但许多启发式和精确算法是已知的,因此可以完全解决一些具有数万个城市的实例,而针对数百万个城市规模的tsp问题,uwaterloo.ca 官网上也一直更新目前所能找到的最优解(最近于2021.2.15更新记录),颇有一种“军备竞赛”的感觉。

在这里插入图片描述

对称和非对称性

​ 在对称 TSP 中,两个城市之间的距离在每个相反方向上都相同,形成一个无向图。这种对称性使可能的解决方案数量减半。在非对称 TSP 中,两个方向可能不存在路径或距离可能不同,从而形成有向图。交通碰撞、单向街道以及不同出发和到达费用的城市的机票都是体现这种非对称性的例子。

数据集

​ 研究人员常用的经典数据集是TSPLIB95数据集,我们做相关实验也会经常采用该数据集。在实际使用过程中,可以去TSPLIB95数据集官网进行下载相关数据源文件,自行编写代码进行读取数据文件等处理;也可以使用Python安装tsplib包,然后导包进行相关操作,这里给出tsplib包的官网,相关安装使用文档如有需要可自取。


背包问题(Knapsack Problem,KP)

经典0-1背包问题

​ 设有一个容积为 V \;V\; V的包, n \;n\; n体积分别为 v i \;v_i\; vi、价值分别为 c i \;c_i\; ci的物品, i = 1 , 2 , . . . , n \;i=1,2,...,n\; i=1,2,...,n,如何在所装物品的总体积不超过容积 V \;V\; V的情况下,使得所装物品的价值最大?

这个问题的数学形式为:
m a x ∑ c i x i i = 1 n s . t ∑ v i x i i = 1 n ≤ V x i ∈ { 0 , 1 } \large max\;\overset n{\underset{i=1}{\sum c_ix_i}}\\\large s.t\;\overset n{\underset{i=1}{\sum v_ix_i}}\leq V\\\large x_i\in\{0,1\} maxi=1cixins.ti=1vixinVxi{0,1}
​ 值得一提的是,对于经典的0-1背包问题(问题规模较小的情况下),一个很有名的解法就是采用动态规划(DP)的方式,采用空间换时间的思想,具体算法思想如下:

f [ i ] [ j ] f[i][j] f[i][j]表示只考虑前 i \;i\; i个物品,总容积是 j \;j\; j的情况下的最大价值。则 r e s u l t = m a x ( f [ n ] [ 0 ∼ V ] ) f [ i ] [ j ] : result = max(f[n][0\sim V]) f[i][j]: result=max(f[n][0V])f[i][j]:

  • 不选第 i \;i\; i个物品: f [ i ] [ j ] = f [ i − 1 ] [ j ] f[i][j]=f[i-1][j] f[i][j]=f[i1][j];(第 i \;i\; i个物品的体积超过容积 j \;j\; j,无法放入第 i \;i\; i个物品)
  • 选第 i i i个物品: f [ i ] [ j ] = f [ i − 1 ] [ j − v [ i ] ] + c [ i ] f[i][j] = f[i-1][j-v[i]] + c[i] f[i][j]=f[i1][jv[i]]+c[i](第 i \;i\; i个物品的体积不超过容积 j \;j\; j,可以放入第 i \;i\; i个物品,其中 v [ i ] \;v[i]\; v[i]是第 i \;i\; i个物品的体积)此时 f [ i ] [ j ] f[i][j] f[i][j]值为 f [ i − 1 ] [ j − v [ i ] ] + c [ i ] f[i-1][j-v[i]] + c[i] f[i1][jv[i]]+c[i] f [ i − 1 ] [ j ] f[i-1][j] f[i1][j]两者之间取最大。
  • 初始化:$f[0\sim n][0] = 0;;f[0][0\sim V] = 0 $(啥都不选或者容量是0的情况下,最大价值都是0)

​ 综上,其状态转移方程如下:
f [ i , j ] = { 0 i f i = 0 o r j = 0 , f [ i − 1 , j ] i f v i > j , m a x ( c i + f [ i − 1 , V − v i ] , f [ i − 1 , j ] ) i f i > 0 a n d V ≥ v i \large f\lbrack i,j\rbrack=\left\{\begin{array}{cc}0&if\;\;i=0\;or\;j=0,\\f\lbrack i-1,j\rbrack&if\;\;v_i>j,\\max(c_i+f\lbrack i-1,V-v_i\rbrack,f\lbrack i-1,j\rbrack)&if\;\;i>0\;and\;V\geq v_i\end{array}\right. f[i,j]=0f[i1,j]max(ci+f[i1,Vvi],f[i1,j])ifi=0orj=0,ifvi>j,ifi>0andVvi
​ Python代码如下,仅供参考:

n, v = map(int, input().split())
goods = []
for i in range(n):goods.append([int(i) for i in input().split()])
# 初始化,先全部赋值为0,这样至少体积为0或者不选任何物品的时候是满足要求  
dp = [[0 for i in range(v+1)] for j in range(n+1)]
for i in range(1, n+1):for j in range(1,v+1):dp[i][j] = dp[i-1][j]  # 第i个物品不选if j>=goods[i-1][0]:# 判断背包容量是不是大于第i件物品的体积# 在选和不选的情况中选出最大值dp[i][j] = max(dp[i][j], dp[i-1][j-goods[i-1][0]]+goods[i-1][1])print(dp[-1][-1])
背包问题变种
  • 多重背包问题:设有一个容积为 V \;V\; V的包, n \;n\; n体积分别为 v i \;v_i\; vi、价值分别为 c i \;c_i\; ci、**数量分别为 q i \;\pmb{q_i}\; qiqiqi**的物品, i = 1 , 2 , . . . , n \;i=1,2,...,n\; i=1,2,...,n,如何在所装物品的总体积不超过容积 V \;V\; V的情况下,使得所装物品的价值最大?

  • 完全背包问题:设有一个容积为 V \;V\; V的包, n \;n\; n体积分别为 v i \;v_i\; vi、价值分别为 c i \;c_i\; ci数量无限的物品, i = 1 , 2 , . . . , n \;i=1,2,...,n\; i=1,2,...,n,如何在所装物品的总体积不超过容积 V \;V\; V的情况下,使得所装物品的价值最大?

  • 分组背包问题:设有一个容量为 V \;V\; V的包, n \;n\; n体积分别为 v i \;v_i\; vi、价值分别为 c i \;c_i\; ci的物品,这些物品被划分为若干组,每组中的物品互相冲突,最多选一件。求解将哪些物品装入背包可使这些物品的体积总和不超过背包容量,且价值总和最大。

  • 依赖背包问题:设有一个容量为 V \;V\; V的包, n \;n\; n体积分别为 v i \;v_i\; vi、价值分别为 c i \;c_i\; ci的物品.这种背包问题的物品间存在某种“依赖”的关系。也就是说物品 i \;i\; i依赖于 j \;j\; j,表示若选物品 i \;i\; i,则必须选物品 j \;j\; j。求解将哪些物品装入背包,使得这些物品的体积总和不超过背包容量且满足依赖关系的情况下,使得价值总和最大。


车辆路径问题(Vehicle routing problem,VRP)

经典车辆路径问题描述:

​ 车辆路线问题(VRP)是指一定数量的客户,各自有不同数量的货物需求,配送中心向客户提供货物,由一个车队负责分送货物,组织适当的行车路线,目标是使得客户的需求得到满足,并能在一定的约束下,达到诸如路程最短、成本最小、耗费时间最少等目的。

在这里插入图片描述

​ 车辆路线问题一直是网络优化问题中最基本的问题之一,由于其应用的广泛性和经济上的重大价值,一直受到国内外学者的广泛关注。例如:设有一场站(depot),共有 M \;M\; M辆货车,车辆容量为 Q \;Q\; Q,有 N \;N\; N位顾客(customer),每位顾客有其需求量 D \;D\; D。车辆从场站出发对客户进行配送服务最后返回场站,要求所有顾客都被配送,每位顾客一次配送完成,且不能违反车辆容量的限制,目的是所有车辆路线的总距离最小。车辆路线的实际问题包括配送中心配送、公共汽车路线制定、信件和报纸投递、航空和铁路时间表安排、工业废品收集等。

​ 值得一提的是,旅行商问题(Traveling Saleman Problem,TSP)是VRP的特例,由于TSP问题是NP-hard问题,因此,VRP也属于NP-hard问题。

车辆路径问题类型

一般而言车辆路线问题大致可以分为以下三种类型:

  1. 相异的单一起点和单一终点。
  2. 相同的单一起点和终点。
  3. 多个起点和终点。
车辆路径问题变种
  • 有利润的车辆路线问题 (Vehicle Routing Problem with Profits, VRPP)[1],[2],[3]:一个最大化问题,其中不强制访问所有客户。目的是访问一次客户,在遵守车辆时间限制的同时最大化收集的利润总和。车辆必须在车站开始和结束。

  • 取货和送货的车辆路线问题(Vehicle Routing Problem with Pickup and Delivery, VRPPD):许多货物需要从某些取货地点转移到其他交货地点。目标是为车队找到前往接送地点的最佳路线。

  • 后进先出的车辆路线问题(Vehicle Routing Problem with LIFO):类似于 VRPPD,除了对车辆的装载施加了额外的限制:在任何交付地点,交付的物品必须是最近提取的物品。该方案减少了交货地点的装卸时间,因为除了应该放下的物品之外,不需要临时卸载物品。

  • 具有时间窗的车辆路线问题 (Vehicle Routing Problem with Time Windows, VRPTW):交付地点具有必须在其中进行交付(或访问)的时间窗。

  • 具有承载量的车辆路线问题(Capacitated Vehicle Routing Problem, CVRP/CVRPTW)。车辆对必须交付的货物的承载能力有限。

  • 多路线的车辆路线问题 (Vehicle Routing Problem with Multiple Trips, VRPMT):车辆可以执行多条路线。

  • 开放式车辆路线问题 (Open Vehicle Routing Problem, OVRP):车辆不需要返回站点。

  • 库存路由问题(Inventory Routing Problem, IRP)[4]:车辆负责满足每个交付点的需求。

  • 多站点车辆路由问题 (Multi-Depot Vehicle Routing Problem, MDVRP)[5]:存在多个站点,车辆可以从这些站点开始和结束。

    ​ 下图展示了常见VRP子问题之间关系:

在这里插入图片描述

求解方法(参考资料)
  1. 求解方法演进

    ​ 综合过去有关车辆路线问题的求解方法,可以分为精确算法(exact algorithm)与启发式解法(heuristics),其中精密算法有分支界限法、分支切割法、集合涵盖法等;启发式解法有节约法、模拟退火法、确定性退火法、禁忌搜寻法、基因算法、神经网络、蚂蚁殖民算法等。1995年,Fisher曾将求解车辆路线问题的算法分成三个阶段。第一阶段是从1960年到1970年,属于简单启发式方式,包括有各种局部改善启发式算法和贪婪法(Greedy)等;第二阶段是从1970年到1980年,属于一种以数学规划为主的启发式解法,包括指派法、集合分割法和集合涵盖法;第三阶段是从1990开始至今,属于较新的方法,包括利用严谨启发式方法、人工智能方法等。

  2. 启发式算法

    ​ 由于VRP是NP-hard问题,难以用精确算发求解,启发式算法是求解车辆运输问题的主要方法,多年来许多学者对车辆运输问题进行了研究,提出了各种各样的启发式方法。车辆运输问题的启发式方法可以分为简单启发式算法、两阶段启发式算法、人工智能方法建立的启发式方法。

    简单启发式方法包括节省法或插入法、路线内/间节点交换法、贪婪法和局部搜索法等方法。节省法或插入法(savings or insertion)是在求解过程中使用节省成本最大的可行方式构造路线,直到无法节省为止。交换法则是依赖其他方法产生一个起始路线,然后以迭代的方式利用交换改善法减少路线距离,直到不能改善为止。1960年,Clarke和Wright首先提出一种启发式节省法(savings methods)来建立车队配送路线。简单启发式方法简单易懂、求解速度快,但只适合求解小型、简单的VRP问题。

    两阶段方法包括先分组后定路线(clusterfirst-route second)和先定路线后分组(routefirst-cluster second)两种启发式策略。前者是先将所有需求点大略分为几个组,然后再对各个组分别进行路线排序;后者则是先将所有的需求点建构成一条路线,再根据车辆的容量将这一路线分割成许多适合的单独路线。

    人工智能方法自1990年来,在解决组合优化问题上显示出强大功能,在各个领域得到充分应用,很多学者也将人工智能引入车辆路线问题的求解中,并构造了大量的基于人工智能的启发式算法。禁忌搜索法(TS)基本上是属于一种人工智能型(AI)的局部搜寻方法,Willard首先将此算法用来求解VRP ,随后亦有许多位学者也发表了求解VRP的TS 算法。西南交通大学的袁庆达等设计了考虑时间窗口和不同车辆类型的禁忌算法,这种算法主要采用GENIUS方法产生初始解,然后禁忌算法对初始解优化。模拟退火方法具有收敛速度快,全局搜索的特点,Osman对VRP的模拟退火算法进行了研究,他提出的模拟退火方法主要适合于解决路线分组。遗传算法具有求解组合优化问题的良好特性,Holland首先采用遗传算法(GA)编码解决VRPTW 问题。现在多数学者采用混合策略,分别采用两种人工智能方法进行路线分组和路线优化。Ombuki提出了用遗传算法进行路线分组,然后用禁忌搜索方法进行路线优化的混合算法。Bent和Van Hentenryck则首先用模拟退火算法将车辆路线的数量最小化,然后用大邻域搜索法(largneighborhood search)将运输费用降到最低。

    总结几种人工智能方法可以看出:
      TS算法所得到的解最接近最优解,但其运算时间也最长,是GA算法的2~3倍,SA算法的近20倍;
      GA算法也能较好的逼近最优解,同时使运算时间大大缩短,所以GA算法能兼顾运算时间和效率两方面,是具有较好的发展前途的方法;
      SA算法求解速度非常快,也能提供一定程度上的优化方案在求解较小规模问题上具有较好效果。

经典问题小结

​ 对三类经典组合优化问题进行简单总结,表格如下:

经典问题类型解是否有序解的一般表示形式难度
TSP路径优化有序序列 N P H a r d \;NP\;Hard\; NPHard
KP装包优化无序集合 N P C \;NPC\; NPC
VRP路径(路径+装包)有序(有序无序混合)序列(序列集合嵌套) N P H a r d \;NP\;Hard\; NPHard

​ 通过对以上的经典问题进行简单的总结,有助于更深刻地理解组合优化问题。实际上,生活场景中的很多组合优化问题可以规约到以上三种问题或者相关变种(或者说问题具有同质性),而上述问题已被证明是 N P H a r d \;NP\;Hard\; NPHard难度,这也是论文中常用的一种证明方法:将不常见的问题规约到大家熟知的问题上,用以说明两类问题具有相同的难度。


常见处理技巧:

​ 在处理最优化问题上,我们在使用一些常用的演化计算或深度学习框架外,也会经常对我们实际需要解决的问题进行一些处理,其中包括问题的抽象化简问题公式化描述以及目标函数的设计与求解等。当然,具体问题的抽象化简和公式化描述与待优化的具体问题相关,可根据上述提到的规约的方式进行类比,这里不作赘述。这里介绍常用的一些与目标函数的设计与求解相关的常见处理技巧。

1.罚函数法

基本原理

​ 考虑非线性规划问题:
m i n f ( x ) s . t . h i ( x ) = 0 ( i = 1 , 2 , . . . , m ) g j ( x ) ≥ 0 ( j = 1 , 2 , . . . , l ) x ∈ D ⊂ R n \large min\;f(\pmb{x})\\\large s.t.\;h_i(\pmb{x})=0\;\;(i=1,2,...,m)\\\large g_j(\pmb{x})\geq 0\;\;(j=1,2,...,l)\\\large\pmb{x}\in D\subset R^n minf(xxx)s.t.hi(xxx)=0(i=1,2,...,m)gj(xxx)0(j=1,2,...,l)xxxDRn
​ 其中, f ( x ) \;f(\pmb{x})\; f(xxx) h i ( x ) h_i(\pmb{x})\; hi(xxx) g j ( x ) \;g_j(\pmb{x})\; gj(xxx) R n \;R^n\; Rn上的连续函数, D \;D\; D是可行域。

​ 由于上述问题的约束为非线性,不能用消元法将该问题转化为无约束问题,所以在求解时必须同时考虑既使目标函数值下降,又要满足约束条件。为此,可以通过构造一个由目标函数与约束函数组成的罚函数的办法,将有约束问题转化为无约束问题,对罚函数实行极小化来实现这一目的。例如,上述的非线性规划问题中既含有等式约束,又含有不等式约束,可将罚函数的形式定义如下:
p ( x , M ) = f ( x ) + M { ∑ j = 1 l [ m i n ( 0 , g i ( x ) ) ] 2 + ∑ i = 1 m [ ( h i ( x ) ] 2 } \large p(\pmb{x},M)=f(\pmb{x})+M\{\;\sum_{j=1}^l{\lbrack \;min(\;0,\;g_i(\pmb{x})\;)\rbrack\;}^2+\sum_{i=1}^m{\lbrack \;(h_i(\pmb{x})\;\rbrack}^2\;\} p(xxx,M)=f(xxx)+M{j=1l[min(0,gi(xxx))]2+i=1m[(hi(xxx)]2}
​ 其中,称函数 p ( x , M ) \;p(\pmb{x},M)\; p(xxx,M)为惩罚函数(或罚函数),其中第二项
M { ∑ j = 1 l [ m i n ( 0 , g i ( x ) ) ] 2 + ∑ i = 1 m [ ( h i ( x ) ] 2 } \large\;M\{\;\sum_{j=1}^l{\lbrack \;min(\;0,\;g_i(\pmb{x})\;)\rbrack\;}^2+\sum_{i=1}^m{\lbrack \;(h_i(\pmb{x})\;\rbrack}^2\;\}\; M{j=1l[min(0,gi(xxx))]2+i=1m[(hi(xxx)]2}
为惩罚项,称 M \;M\; M为惩罚因子。惩罚函数只对不满足约束条件的点实行惩罚。当 x ∈ D \;\pmb{x}\in D\; xxxD时,若所有的约束不等式都满足(即 h i ( x ) = 0 ( i = 1 , 2 , . . . , m ) , g j ( x ) ≥ 0 ( j = 1 , 2 , . . . , l ) \;h_i(\pmb{x})=0\;\;(i=1,2,...,m)\;,\;g_j(\pmb{x})\geq 0\;\;(j=1,2,...,l)\; hi(xxx)=0(i=1,2,...,m),gj(xxx)0(j=1,2,...,l)),此时惩罚项等于0,不受惩罚;当 x ∉ D \;\pmb{x}\notin D\; xxx/D时,至少有一个约束条件不满足,故此时惩罚项大于0,对极小化罚函数的问题,就要受惩罚。

注意事项

​ 需要说明的是,罚函数的形式不是唯一的。在实际计算中,罚因子 M \;M\; M的值选的过小或过大都不好。如果选得过小,则罚函数的极小点远离约束问题的最优解,计算效率很差;如果 M \;M\; M过大,则给罚函数的极小化增加计算上的困难。因此,一般策略是取一个趋向于无穷大的严格递增的正数列 { M k } \;\{M_k\}\; {Mk},从 M 1 \;M_1\; M1开始,对每个 M k \;M_k\; Mk求解:
p ( x , M k ) = f ( x ) + M k { ∑ j = 1 l [ m i n ( 0 , g i ( x ) ) ] 2 + ∑ i = 1 m [ ( h i ( x ) ] 2 } \large p(\pmb{x},M_k)=f(\pmb{x})+M_k\{\;\sum_{j=1}^l{\lbrack \;min(\;0,\;g_i(\pmb{x})\;)\rbrack\;}^2+\sum_{i=1}^m{\lbrack \;(h_i(\pmb{x})\;\rbrack}^2\;\} p(xxx,Mk)=f(xxx)+Mk{j=1l[min(0,gi(xxx))]2+i=1m[(hi(xxx)]2}
​ 随着 M k \;M_k\; Mk值的增加,罚函数中的罚项所起的作用越来越大,即对点远离可行域 D \;D\; D的惩罚越来越重,这就迫使罚函数的极小点 x ( k ) \;\pmb{x}^{(k)}\; xxx(k)与可行域 D \;D\; D的“距离”越来越近。当 M k \;M_k\; Mk趋向于正无穷大时,点列 { x ( k ) } \;\{\pmb{x}^{(k)}\}\; {xxx(k)}就从可行域外部趋向于原问题的极小点(可以证明,在适当条件下,这个点列 { x ( k ) } \;\{\pmb{x}^{(k)}\}\; {xxx(k)}收敛于约束问题的最优解),“外点法”正是因此得名。

​ “外点法”是对罚函数 p ( x , M ) \;p(\pmb{x},M)\; p(xxx,M)在整个空间 R n \;R^n\; Rn内进行优化,因此,初始点可以任意给定,它给计算提供了方便,这也是外点法的另一优点。

2.牛顿法

​ 牛顿法是一种函数逼近法,它的基本思想就是:在极小点附近用二阶 T a y l o r \;Taylor\; Taylor多项式近似代替目标函数 f ( x ) \;f(x)\; f(x),从而求出 f ( x ) \;f(x)\; f(x)极小点的估计值。在数值分析中,牛顿法用于求方程的根,而求函数极值点等价于求导函数的根(如果函数可微的话)。因此,牛顿法作为一种优化方法,其实质就是将一个求函数极值点的问题转化为求另一个函数(目标函数的导函数)的根的问题。

基本原理
  1. 用二阶 T a y l o r \;Taylor\; Taylor多项式 φ ( x ) \;\varphi(x)\; φ(x)来近似 f ( x ) \;f(x)\; f(x)

    f ( x ) \;f(x)\; f(x)在点 x k \;x_k\; xk处展开成 T a y l o r \;Taylor\; Taylor级数,取其前三项,即得到 φ ( x ) \;\varphi(x)\; φ(x)
    φ ( x ) = f ( x k ) + f ′ ( x k ) ( x − x k ) + 1 2 f ′ ′ ( x k ) ( x − x k ) 2 ≈ f ( x ) \large\varphi(x)=f(x_k)+f^{'}(x_k)(x-x_k)+\frac{1}{2}f^{''}(x_k)(x-x_k)^2\approx f(x) φ(x)=f(xk)+f(xk)(xxk)+21f(xk)(xxk)2f(x)
    ​ 上述 φ ( x ) \;\varphi(x)\; φ(x)在点 x k \;x_k\; xk处的 φ ( x k ) \;\varphi(x_k)\; φ(xk) φ ( x k ′ ) \;\varphi(x^{'}_k)\; φ(xk) φ ( x k ′ ′ ) \;\varphi(x^{''}_k)\; φ(xk)分别与 f ( x ) \;f(x)\; f(x)在点 x k \;x_k\; xk处的 f ( x k ) \;f(x_k)\; f(xk) f ( x k ′ ) \;f(x^{'}_k)\; f(xk) f ( x k ′ ′ ) \;f(x^{''}_k)\; f(xk)相等。

  2. φ ( x ) \;\varphi(x)\; φ(x)的极小点近似 f ( x ) \;f(x)\; f(x)的极小点

    ​ 令
    φ ′ ( x ) = f ′ ( x k ) + f ′ ′ ( x k ) ( x − x k ) = 0 \large\varphi^{'}(x)=f^{'}(x_k)+f^{''}(x_k)(x-x_k)=0 φ(x)=f(xk)+f(xk)(xxk)=0
    ​ 得到 φ ( x ) \;\varphi(x)\; φ(x)的驻点 x k + 1 \;x_{k+1}\; xk+1:
    x k + 1 = x k − f ′ ( x k ) f ′ ′ ( x k ) \large x_{k+1}=x_k-\frac{f^{'}(x_k)}{f^{''}(x_k)} xk+1=xkf(xk)f(xk)
    ​ 因为在 x k \;x_k\; xk附近, φ ( x ) ≈ f ( x ) \varphi(x) \approx f(x)\; φ(x)f(x),故可用 φ ( x ) \;\varphi(x)\; φ(x)的极小点作为 f ( x ) \;f(x)\; f(x)的极小点的估计值。如果 x k \;x_k\; xk f ( x ) \;f(x)\; f(x)的极小点的一个估计值,则可以利用上述公式得到极小点的一个进一步的估计值 x k + 1 \;x_{k+1}\; xk+1.

  3. 判断精度

    ​ 若 x k + 1 \;x_{k+1}\; xk+1满足允许精度,则停止计算。否则,在点 x k + 1 \;x_{k+1}\; xk+1处,利用上述公式计算出 x k + 2 . . . . . . \;x_{k+2}\;...... xk+2......如此继续下去,则可以得到一个点列(数列)。可以证明,在一定条件下,这个点列收敛于 f ( x ) \;f(x)\; f(x)的极小点。

算法步骤
  1. 给定初始点 x 1 \;x_1\; x1,给定允许精度 ε > 0 \varepsilon \gt 0 ε>0,并令 k = 1 \;k=1\; k=1;
  2. 计算 f ( x k ′ ) \;f(x^{'}_k)\; f(xk) f ( x k ′ ′ ) \;f(x^{''}_k)\; f(xk);
  3. KaTeX parse error: Undefined control sequence: \abs at position 1: \̲a̲b̲s̲{f(x^{'}_k)}\lt…,则停止迭代,得到近似极小点 x k \;x_k\; xk.否则转下一步.
  4. 计算 x k + 1 = x k − f ′ ( x k ) f ′ ′ ( x k ) x_{k+1}=x_k-\frac{f^{'}(x_k)}{f^{''}(x_k)} xk+1=xkf(xk)f(xk).
  5. k = k + 1 \;k=k+1\; k=k+1,返回步骤 2 \;2\; 2
补充说明

​ 实际上,上述的迭代公式是牛顿法求** f ( x ) \;f(x)\; f(x)极小点的估计值的一个应用,另一常见应用是牛顿法求 f ( x ) \;f(x)\; f(x)​的根**,两者思路相同。我们将 f ( x ) \;f(x)\; f(x)在点 x k \;x_k\; xk处展开成 T a y l o r \;Taylor\; Taylor级数,取其前项,即得到 φ ( x ) \;\varphi(x)\; φ(x)
φ ( x ) = f ( x k ) + f ′ ( x k ) ( x − x k ) ≈ f ( x ) = 0 \large\varphi(x)=f(x_k)+f^{'}(x_k)(x-x_k)\approx f(x)=0 φ(x)=f(xk)+f(xk)(xxk)f(x)=0
​ 得到 φ ( x ) \;\varphi(x)\; φ(x)的零点 x k + 1 \;x_{k+1}\; xk+1的迭代公式:
x k + 1 = x k − f ( x k ) f ′ ( x k ) \large x_{k+1}=x_k-\frac{f(x_k)}{f^{'}(x_k)} xk+1=xkf(xk)f(xk)
​ 其几何意义如下图所示:

在这里插入图片描述

3.最速下降法

基本原理

​ 考虑无约束优化问题
m i n f ( x ) , x ∈ R n \large min\;f(\pmb{x})\;,\;\;\pmb{x}\in R^n minf(xxx),xxxRn
其中 f ( x ) \;f(\pmb{x})\; f(xxx)具有一阶连续偏导数。

​ 在求解上述问题时,人们希望选择一个使目标函数值下降速度最快的方向,以迅速达到极小点。正是基于这一点,法国数学家于1847年首先提出了最速下降法(Steepest Descent Method)。最速下降法的基本思想正是在每一次迭代中,选择最速下降方向(负梯度方向)作为搜索方向,正因为如此,最速下降法又被称为一阶梯度法或梯度法。最速下降法是许多非线性规划算法的一个基础,例如,著名的人工神经网络反向传播算法(即BP算法)就是基于最速下降法原理的。

算法步骤
  1. 给定初始点 x ( 1 ) ∈ R n \;\pmb{x}^{(1)}\in R^n\; xxx(1)Rn,允许误差 ε > 0 \;\varepsilon>0\; ε>0,并令 k = 1 \;k=1\; k=1.

  2. x ( k ) \;\pmb{x}^{(k)}\; xxx(k)处梯度向量的模的值 ∥ ∇ f ( x ( k ) ) ∥ \;\parallel \nabla f(\pmb{x}^{(k)})\parallel\; f(xxx(k)),并判断精度。若 ∥ ∇ f ( x ( k ) ) ∥ < ε \;\parallel \nabla f(\pmb{x}^{(k)})\parallel\lt \varepsilon\; f(xxx(k))<ε,则停止计算,输出 x ( k ) \;\pmb{x}^{(k)}\; xxx(k)作为近似极小点,否则转下一步.

  3. 选择 x ( k ) \;\pmb{x}^{(k)}\; xxx(k)处的负梯度方向作为搜索方向,即取
    d ( k ) = − ∇ f ( x ( k ) ) \large \pmb{d}^{(k)}=-\nabla f(\pmb{x}^{(k)}) ddd(k)=f(xxx(k))

  4. x ( k ) \;\pmb{x}^{(k)}\; xxx(k)点出发,沿 d ( k ) \;\pmb{d}^{(k)}\; ddd(k)方向进行一维搜索,即求最优步长 λ k \;\lambda_k\; λk,使得
    f ( x ( k ) + λ k d ( k ) ) = m i n λ f ( x ( k ) + λ d ( k ) ) \large f(\pmb{x}^{(k)}+\lambda_k\pmb{d}^{(k)})=\underset\lambda{min}\;f(\pmb{x}^{(k)}+\lambda\pmb{d}^{(k)}) f(xxx(k)+λkddd(k))=λminf(xxx(k)+λddd(k))

  5. x ( k + 1 ) = x ( k ) + λ k d ( k ) \;\pmb{x}^{(k+1)}=\pmb{x}^{(k)}+\lambda_k\pmb{d}^{(k)}\; xxx(k+1)=xxx(k)+λkddd(k),置 k = k + 1 \;k=k+1\; k=k+1,转步骤 2 \;2\; 2.

    ​ 下图是二维情况下的最速下降法的直观示例:

在这里插入图片描述


计算复杂性与问题分类

计算复杂性

​ 由组合优化问题的定义可知,每一个组合最优化问题的解集都是有限集,因而都可以通过枚举的方法求得最优解。枚举是以时间为代价的,有的枚举时间还可以接受,有的则不能接受。

相关定义
  1. 给定一个组合优化问题,当问题中的参数赋予具体值时,称为问题的一个实例,这些具体参数值称为数据,这些数据输入计算机所占空间称为实例的输入长度

  2. 假设问题和解决该问题的一个算法已经给定。若对给定问题的一个实例 I \;I\; I,存在多项式函数 g ( x ) \;g(x)\; g(x)使得:
    C ( I ) ≤ α g ( d ( I ) ) \large C(I)\leq \alpha g(d(I)) C(I)αg(d(I))
    其中, C ( I ) \;C(I)\; C(I)是求解实例 I \;I\; I的算法的基本运算总次数, d ( I ) \;d(I)\; d(I)表示对于实例 I \;I\; I的计算机的实例输入长度, α \;\alpha\; α是一个正常数。如上述不等式成立,则称该算法是实例 I \;I\; I的多项式时间算法;若存在多项式函数 g ( x ) \;g(x)\; g(x),对该问题的每个实例都有上述不等式成立,则称该算法是解决该问题的多项式时间算法

  3. 对于给定的一个优化问题,若存在一个求解该问题最优解的算法、一个多项式函数 g ( x ) \;g(x)\; g(x)和常数 α \;\alpha\; α,使得上述不等式对于给定优化问题的任意一个实例成立,则称给定的优化问题是多项式时间可解问题,或简称为多项式问题,所有多项式问题的集合记为 P \;P\; P(polynomial)

问题分类

​ 迄今为止,许多组合优化问题还没有找到求解最优解的多项式时间算法,比多项式问题(即 P \;P\; P问题)更广泛的一类是非多项式问题(Nondeterministic Polynomial,简记 N P \;NP\; NP)。

定义:如果 A ∈ N P \;A \in NP\; ANP N P \;NP\; NP中的任何一个问题可在多项式时间内规约为问题 A \;A\; A,则称判定问题 A \;A\; A属于 N P C \;NPC\; NPC或者称为 N P − C o m p l e t e NP-Complete\; NPComplete。另外,若 N P \;NP\; NP中的任何一个问题可在多项式时间内规约为问题 A \;A\; A,则称问题 A \;A\; A N P \;NP\; NP难或 N P − H a r d \;NP-Hard\; NPHard

​ 对 N P − H a r d \;NP-Hard\; NPHard问题和 N P − C o m p l e t e \;NP-Complete\; NPComplete问题的一个直观的理解就是指那些很难(很可能是不可能)找到多项式时间算法的问题。因此一般初学算法的人都会问这样一个问题: N P − H a r d \;NP-Hard\; NPHard N P − C o m p l e t e \;NP-Complete\; NPComplete有什么不同?简单的回答是根据定义,如果所有 N P \;NP\; NP问题都可以多项式归约到问题 A \;A\; A,那么问题 A \;A\; A就是 N P − H a r d \;NP-Hard\; NPHard;如果问题 A \;A\; A既是 N P − H a r d \;NP-Hard\; NPHard又是 N P \;NP\; NP,那么它就是 N P − C o m p l e t e \;NP-Complete\; NPComplete。从定义我们很容易看出, N P − H a r d \;NP-Hard\; NPHard问题类包含了 N P − C o m p l e t e \;NP-Complete\; NPComplete类。但进一步的我们会问,是否有属于 N P − H a r d \;NP-Hard\; NPHard但不属于 N P − C o m p l e t e \;NP-Complete\; NPComplete的问题呢?答案是肯定的。例如停机问题,也即给出一个程序和输入,判定它的运行是否会终止。停机问题是不可判的,那它当然也不是 N P \;NP\; NP问题。但对于 S A T \;SAT\; SAT(可满足性问题)这样的 N P − C o m p l e t e \;NP-Complete\; NPComplete问题,却可以多项式归约到停机问题。因为我们可以构造程序A,该程序对输入的公式穷举其变量的所有赋值,如果存在赋值使其为真,则停机,否则进入无限循环。这样,判断公式是否可满足便转化为判断以公式为输入的程序A是否停机。所以,停机问题是 N P − H a r d \;NP-Hard\; NPHard而不是 N P − C o m p l e t e \;NP-Complete\; NPComplete。(参考资料)

在这里插入图片描述

​ 示意图表示 P ⊂ N P \;P\subset NP\; PNP, N P C ⊂ N P − H a r d \;NPC\subset NP-Hard\; NPCNPHard, N P \;NP\; NP N P − H a r d \;NP-Hard\; NPHard的公共部分为 N P C \;NPC\; NPC.在 N P \;NP\; NP中,除 P \;P\; P N P C \;NPC\; NPC,还有一部分问题的复杂性是未知的。

启发式算法

概念

​ 启发式算法是相对于最优算法提出的,一个问题的最优算法求得该问题每个实例的最优解。但在某些情况下,特别是在实际问题中,最优算法的计算时间使得人们无法忍受或者因问题的难度使其计算时间随问题规模的增加以指数速度增加,例如前文中提到的TSP的枚举解法就是如此,因而人们想到基于直观或经验构造一种算法,去求问题的一个可行解,这种方法就是所谓的启发式算法

​ 启发式算法可以这样定义:一个基于直观或经验构造的算法,在可接受的花费(指计算时间、占用空间等)下给出待解决组合优化问题每一个实例的一个可行解,该可行解与最优解的偏离程度不一定事先可以预计。

​ 另一种定义为:启发式算法是一种技术。这种技术使得在可接受的计算费用内去寻找最好的解,但不一定能保证所得解的可行性与最优性,甚至在多数情况下,无法阐述所得解同最优解的近似程度。启发式方法是对启发式算法的综合应用。

分类

  • 一步算法:
  • 改进算法
  • 数学规划算法
  • 解空间松弛算法
  • 现代优化算法

性能分析

  • 最坏情形分析
  • 概率分析
  • 大规模计算分析


http://chatgpt.dhexx.cn/article/9dN5PAlx.shtml

相关文章

进化算法——组合优化

离散优化问题&#xff0c;也被称为组合优化问题&#xff0c;我们可以视之为在候选目标的有限集中找出最优目标 被称为搜索空间的基数。在理论上我们可以通过评价这个解的每一个f(x)来求解上式&#xff0c;这种组合优化的方法被称为穷举搜索或蛮力。 目录 旅行商问题TSP 旅行商…

组合优化求解方法

1. 离散优化/整数规划 整数规划&#xff0c;或者离散优化&#xff08;Discrete Optimization&#xff09;&#xff0c;是指数学规划问题中自变量存在整数。 混合整数规划&#xff08;Mixed Integer Programming, MIP&#xff09;&#xff0c;即自变量既包含整数也有连续变量 …

【容器~原始真解】Docker —— 容器的使用

&#x1f50e;这里是【秒懂云原生】&#xff0c;关注我学习云原生不迷路 &#x1f44d;如果对你有帮助&#xff0c;给博主一个免费的点赞以示鼓励 欢迎各位&#x1f50e;点赞&#x1f44d;评论收藏⭐️ &#x1f440;专栏介绍 【秒懂云原生】 目前主要更新微服务和容器&#…

一文搞懂“镜像“和“容器“

众所周知&#xff0c;在云原生技术领域中&#xff0c;容器这一概念显得尤为重要&#xff0c;但是我们在使用Docker或Kubernetes中时常也会听说镜像这一概念&#xff0c;因此我们就利用一篇文章讲述下容器和镜像的概念和相互关系。 1 什么是镜像 1.1 概念 镜像&#xff08;Mi…

Docker容器的概念

一&#xff1a;Docker详情解释 Docker 包括三个基本概念 镜像&#xff08;Image&#xff09;容器&#xff08;Container&#xff09;仓库&#xff08;Repository&#xff09; 理解了这三个概念&#xff0c;就理解了 Docker 的整个生命周期 4.1 镜像&#xff08;Image&#x…

Java的容器

1 容器简介 容器&#xff0c;是用来容纳物体、管理物体。生活中,我们会用到各种各样的容器。如锅碗瓢盆、 箱子和包等。如图所示&#xff1a; 程序中的“容器”也有类似的功能&#xff0c;用来容纳和管理数据。比如&#xff0c;如下新闻网站的新闻 列表、教育网站的课程列表就…

云计算——容器

作者简介&#xff1a;一名云计算网络运维人员、每天分享网络与运维的技术与干货。 座右铭&#xff1a;低头赶路&#xff0c;敬事如仪 个人主页&#xff1a;网络豆的主页​​​​​ 目录 前言 一.容器简介 二.主流容器技术 1.docker &#xff08;1&#xff09;容器的组…

什么是容器

什么是容器 一&#xff1a;概念二&#xff1a;容器API类图2.1 Collection2.2 Set2.3 List2.4 Map 三&#xff1a;详细解释3.1 Collection接口3.1.1 Collection用法 3.2 Iterator接口3.3 List接口3.4 Comparable接口 四&#xff1a;如何选择数据结构4.1 衡量标准&#xff1a;读的…

什么是应用容器

转载自https://www.cnblogs.com/qcloud1001/p/9273549.html 一、什么是容器&#xff1f; 容器这个词&#xff0c;当你第一眼看它或许脑子里是这东西&#xff1a;瓶瓶罐罐、装水、装其他东西的玩意。 不管是什么&#xff0c;总的来说&#xff0c;容器给人第一印象就是——“装”…

Docker解读(什么是容器)

一、What Is A Container 容器映像是一个软件的轻量级独立可执行软件包&#xff0c;包含运行它所需的一切&#xff1a;代码&#xff0c;运行时&#xff0c;系统工具&#xff0c;系统库&#xff0c;设置。不管环境如何&#xff0c;集装箱化软件都可以运行相同的Linux和Windows应…

什么是Docker容器?Docker容器是如何工作的?

Docker是一种轻量级的虚拟化技术&#xff0c;同时是一个开源的应用容器运行环境搭建平台&#xff0c;可以让开发者以便捷方式打包应用到一个可移植的容器中&#xff0c;然后安装至任何运行Linux或Windows等系统的服务器上。相较于传统虚拟机&#xff0c;Docker容器提供轻量化的…

什么是容器云?

作者&#xff1a;宝哥devops运维 链接&#xff1a;http://t.cn/ECwSNgj 容器技术是近几年云行业发展中不可缺少的一环。Docker和k8s的大热极大可能会推动云计算PAAS层的完善和普及。那么容器云到底是怎样的技术形态&#xff1f;究竟是概念还是可落地的应用&#xff1f;在这篇…

容器和镜像的区别

这篇文章希望能够帮助读者深入理解Docker的命令&#xff0c;还有容器&#xff08;container&#xff09;和镜像&#xff08;image&#xff09;之间的区别&#xff0c;并深入探讨容器和运行中的容器之间的区别。 当我对Docker技术还是一知半解的时候&#xff0c;我发现理解Doc…

Docker容器

什么是 Docker&#xff1f;为什么会有 Docker&#xff1f;Docker 的优势&#xff1f; 为什么会有 Docker&#xff1f; 我们知道一款产品从开发到上线&#xff0c;从开发环境到生成环境。作为开发和运维人员之间协作需要考虑很多问题&#xff0c;尤其是当我们的产品多版本迭代之…

搞懂什么是容器?

操作系统是如何管理进程的 进程的特点&#xff1a; 可以相互通信&#xff1a;具有高级权限的进程可以攻击其他进程共享同一份文件系统&#xff1a;&#xff08;1&#xff09;进程可以对已有的进程进行增删改查&#xff0c;也就意味着高级进程可以将其他应用所需要的进程删掉&…

通俗讲解:什么是容器?为什么我们要使用它?

作为程序员&#xff0c;让我们回忆我们每天从事的熟悉得不能再熟悉的软件开发工作&#xff1a; 在本地搭好开发环境&#xff0c;进行开发工作&#xff0c;完了进行单元测试&#xff0c;把开发好的代码部署到测试系统&#xff0c;重复测试&#xff0c;最后部署到生产系统。 我们…

容器化技术概述

容器技术概述 一、什么是容器&#xff1f; 容器这个词&#xff0c;当你第一眼看它或许脑子里是这东西&#xff1a;瓶瓶罐罐、装水、装其他东西的玩意。 不管是什么&#xff0c;总体来说&#xff0c;容器给人第一印象就是——“装”。 那今天我们要说的容器技术是怎么一个概念呢…

Docker学习(一):容器介绍

一、什么是容器 1、容器是一种轻量级、可移植、自包含的软件打包技术&#xff0c;使应用程序可以在几乎任何地方以相同的方式运行。开发人员在自己的笔记本上创建并测试好的容器&#xff0c;无需任何修改就能够在生产系统的虚拟机、或物理服务器、或公有云主机上运行。 2、容器…

容器基本概念

本节课程要点 什么是容器与镜像&#xff1f;如何构建容器与镜像容器的生命周期容器项目的架构容器 VS.VM 容器与镜像 什么是容器&#xff1f; 在介绍容器的具体概念之前&#xff0c;先简单回顾一下操作系统是如何管理进程的。 首先&#xff0c;当我们登录到操作系统之后&a…

走进波分 -- 15.Optix OSN1800产品介绍

用于城域接入/汇聚层。 盘纤盒&#xff0c;可容纳40根光纤&#xff0c;内部容纳光纤总长度50米 透过内置盘纤盒&#xff0c;构成一体化模块 一个DCM插框可以按照2个DCM模块 直流配电盒&#xff0c;用于安装在机柜上方&#xff0c;给设备供电。AB两部分&#xff0c;互为备份 O…