凸优化 - 2 - 凸集和凸函数

article/2025/9/12 2:49:58

         本总结是是个人为防止遗忘而作,不得转载和商用。


前提说明:为了方便查阅,我将整个凸优化的内容分成了很多部分,因为后面的部分用到了前面的知识,所以,如果你的目的是查看后面的内容但对前面的某个知识点不甚了解的话可以根据标题查看前面的部分。


凸集

         既然是讲解凸优化,那不了解凸集怎么能行,不过在此之前先了解个和凸集有“一点点”不同的仿射集。

         仿射集:若通过集合C中任意两个不同点的直线仍在集合C内,则称集合C为仿射集。

         数学语言表达的话就是:

                  

         这个知道下就好,下面看看凸集的定义吧。

         凸集:若集合C内任意两点间的线段均在集合C内,则称集合C为凸集。

         定义的数学语言版:

                  

         嘛,定义还是蛮好理解的,我就不多解释了,下面看几个例子来排除下某些容易混淆的家伙。

        

         上图的第一排:

                   第一个:是凸集

                   第二个:不是凸集,原因图中已经标的很清楚了

                   第三个:不是凸集,有些边没有包含集合的话也不能叫凸集。

        

凸集和凸函数:

         有了前面的基础之后,凸函数就好说明了(其实主要是其定义的数学表达公式容易理解)。

         首先先给出凸函数的图像,如下:

                    

         你可能会问:这不是凹函数吗?

         诚然,在数学中这种图形的函数有的叫凹函数,有的叫下凸函数,反正叫什么的都有,但!在机器学习中,这种就是凸函数,完全没有歧义!

         不过仅仅说“这种是凸函数”还是不能让人信服,于是我们来看看凸函数的定义吧。

         定义:

                  若函数f的定义域domf为凸集,且满足

                        ∀x,y ∈ domf,0≤θ≤1,有

                        f(θx + (1-θ)y) ≤ θf(x) + (1-θ)f(y)     2

                  则这样的函数f就是凸函数。

         什么意思?来看下图,下图的弧线是函数f的曲线。

                  

         还记得之前“直线的向量表达”的内容吗?(不记得的话看看本总结的最开始)。

         θx + (1-θ)y:代表x和y之间的某个点,如果θ=0,就是y点,如果θ=1就是x点。

         于是2的左边不用多说,仅仅是单纯的把(θx + (1-θ)y)这个点带入函数f,也就是上图x和y之间的弧线。

         还是根据“直线的向量表达”的知识,2的右边就是点(x,f(x))和点(y,f(y))之间的线段。

         于是定义就是表达:如果“函数f上任意两点的连线”在“函数f这两点之间函数f图像”的上面的话,这样的函数就是凸函数。

         或者简单的说:如果悬线在函数上方,那这样的函数就是凸函数。

 

         凸函数的定义OK了,就进一步说点东西:

         如果一个函数是凸函数,则该函数的图像上方区域一定是凸集。反过来也成立,即:如果一个函数图像的上方区域是凸集,则该函数是凸函数,于是如下图所示:

                           

         这个图像就是函数y=x2的图像,这个函数是个在明显不过的凸函数,它的上方区域就是凸集。

注意:

         凸集并不一定都能对应到凸函数,因为函数的最根本条件是:对于函数y=f(x),只有一个y,而如下图所示

        

         我取一个点x1,在经过圆构成的凸集时产生了2个y,这与函数的最根本条件就冲突。

         一些比较常见的凸函数有:

                  

 

保持函数凸性的算子

         知道了什么是凸函数后,这里说下什么样的运算会让函数不丢失凸性。

         下面的f(x)代表凸函数,而下面的运算的结果会继续保持凸性:

                  1,凸函数的非负加权和

                            f(x) = w1f1(x)+ ... + wnfn(x),wn > 0

                   2,凸函数与仿射函数的复合

                            g(x)= f(Ax + b)

                            eg:y = u2是凸函数,而u =ax+b,则 y = (ax+b)2也是凸函数

                   3,凸函数的逐点最大值、逐点上确界

                            a,f(x) = max(f1(x),..., fn(x))

                            b,f(x) = sup g(x,y),其中y∈A

         这里特别说明下上面的第三条,一是仅看公式不太好理解,二是这条十分重要!

         第三条中的a的意思是:如果fn(x)是凸的,则对fn(x)逐点最大值形成的函数也是凸的,见下图:

                  

         这里我随便给了两个凸函数(两个红色的曲线就是这两个函数的图像),我在坐标轴上随便取四个点x1,x2,x3,x4,这四个点在两个函数中都有对应的值,而这时我们取较大的那个,即:图中蓝色箭头所指的地方,按照这样的方式把两个函数的定义域取一遍从而形成一个新函数:蓝色弧线框住的部分。而这个新函数也一定是凸函数。

         好了,上面的理解了后我问读这篇文字的你一个问题:直线是凸函数吗?

         答案是:是。

         因为,如下图:

                   1

         上图那些蓝色的是直线(不要吐槽箭头,QQ截图里没法画直线....),这些直线够乱的了吧,这时按照上面第三条中的a中的说法,我取所有直线的最上面的区域,即红色那块,是凸函数吧!于是直线就是凸函数。

         顺便一提:上面包围红色的那些线就是这所有直线函数的上确界。

         至于,上面第三条中的b,其实就是a的连续版本,它的意思是:如果g(x, y)是凸的,我们对y在所有的集合中取上界(和max几乎一个意思),那它的结果f(x)也是凸的。


http://chatgpt.dhexx.cn/article/ieyb5lUa.shtml

相关文章

凸和非凸的理解

目录 一句话概括一、凸和非凸的区别二、凸函数和非凸函数三、凸优化和非凸优化凸优化:常见的凸优化方法:凸优化的一般求解过程非凸优化: 一句话概括 凸(Convex):在该区间函数图象上的任意两点所连成的线段…

凸集与非凸集,凸函数与凹函数,凸优化

关于凸集与非凸集,凸函数与凹函数,凸优化的概念一直混淆,在此整理下相关定义和概念,希望给有需要的人。 凸集:集合中的任意两点连线的点都在该集合中,则称该集合为凸集;凹集为非凸集。 函数的…

最优化——凸集

引言 这是中科大最优化理论的笔记,中科大凌青老师的凸优化课程,详尽易懂,基础扎实。不论是初学者还是从业多年的人,都值得系统地好好学一遍。 本文介绍什么是凸集、凸包与凸锥包。 仿射集 我们先来看最简单的凸集——仿射集(A…

凸集

本文参考自清华大学研究生公共课教材——数学系列《最优化理论与算法》(第二版) 一:凸集 定义:设S为n维欧式空间中中的一个集合,若对S中任意两点,联结它们的线段仍属于S,称这样的集合S是一个凸…

凸集(Convex sets)

凸集(Convex sets) 1.仿射集和凸集 仿射集(Affine set): 定义:如果通过C中任意两个不同点的线位于C中,则集合C⊆Rn就是仿射 其中, 凸集(Convex set): 定义:如果C中的任意两点之间的…

【深度学习】logistic回归模型

目录 神经网络 数据、符号准备: logistic回归: 损失函数和代价函数: 梯度下降法: 向量化: 神经网络 我们学习深度学习的目的就是用于去训练神经网络,而神经网络是什么呢?我们先来看下面一…

十分钟理解logistic回归原理

关于逻辑回归的分类算法,很多书籍都有介绍,比较来看,还是**李航老师的书《统计学习方法》**里介绍的更清楚,若大家有时间,请不要偷懒,还是建议从头开始看李航老师的书,这本书简洁明了&#xff0…

python数据挖掘学习笔记——logistic逻辑回归实现

Logistic逻辑回归分析 logistic模型的基本介绍python中实现logistic回归模型的评价混淆矩阵ROC曲线,AUC值 Logistic模型是经典的用于分类问题的模型,通常用于判断一件事物的好坏或将其分类。本文着重介绍logistic模型的在二分类上的应用,对于…

logistic回归分类与softmax回归

目录 Logistic回归 逻辑回归的定义式: 损失函数 梯度下降 Logistic回归防止过拟合: Softmax回归: loss函数 逻辑回归与Softmax回归的联系 与神经网络的关系 logistic回归(多分类)和softmax的关系&#xff1a…

spss-logistic回归

logistic回归的因变量可以是二分类的,也可以是多分类的,但是二分类的更为常用,也更加容易解释,多类可以使用softmax方法进行处理。 Logistic回归分析也用于研究影响关系,即X对于Y的影响情况。Y为定类数据,…

logistic回归——PYTHON实现

logistic回归——PYTHON实现 概述: ​ logistic回归又称logistic回归分析,是一种线性回归模型。logistic回归应用最广泛的是处理二分类问题。比如,探讨引发疾病的危险因素,判断该病人是否患有该病;探讨房价的涨跌&am…

二项logistic回归案例分析(附操作数据)

当因变量数据类型为分类变量时,线性回归不再适用,应当做logistic回归。根据因变量分类水平的不同,具体包括二项logistic回归、多项logistic回归和有序logistic回归。 1.案例背景与分析策略 1.1 案例背景介绍 现收集到银行贷款客户的个人、…

Logistic回归--实例

逻辑回归 Logistic回归一种二分类算法,它利用的是Sigmoid函数阈值在[0,1]这个特性。Logistic回归进行分类的主要思想是:根据现有数据对分类边界线建立回归公式,以此进行分类。其实,Logistic本质上是一个基于条件概率的判别模型(D…

SPSS(八)logistic回归(图文+数据集)

SPSS(八)logistic回归 我们之前的线性回归也好、线性回归衍生方法也好、非线性回归也好,因变量的类型都是连续性的,假如因变量的类型是分类的呢?logistic回归针对的是二分类的因变量 logistic回归 基于线性回归模型…

2.2、logistic回归

一、什么是logistics回归 首先我们先要了解回归的概念,现有一些数据点,我们用 一条直线对这些点进行拟合,该线称为最佳拟合直线,这个拟合过程就称作回归。logistic回归虽然说是回归,但确是为了解决分类问题&#xff0…

Logistic Regression(逻辑回归)详细讲解

Logistic Regression(逻辑回归) 以前在学校学到Logistic Regression的时候,虽然最后会使用,但是对于许多地方有很多的疑惑,今天在这里详细梳理一下Logistic Regression的过程: Logistic Regression逻辑回归 回归的思想Logistic R…

第13章Stata Logistic回归分析

目录 13.1二元Logistic回归分析 案例延伸 延伸1:设定模型预测概率得具体值 延伸2:使用Probit模型对二分类因变量进行拟合 13.2多元Logistic回归分析 案例延伸 延伸:根据模型预测每个样本视力低下程度的可能性 13.3有序Logistic回归 …

机器学习笔记-Logistic回归

0 - 回顾 l i n e a r r e g r e s s i o n linear\ regression linear regression如果使用平方错误的话,我们可以很方便的解析出最好的 w w w是什么。即 w b e s t X † y w_{ best}X^{\dagger} y wbest​X†y 1 - 逻辑斯蒂回归问题 1.1 - 问题的提出 从一个人…

logistic回归详解

逻辑斯谛回归(logistic regression)是统计学习中的经典分类方法,虽然带有回归的字眼,但是该模型是一种分类算法,逻辑斯谛回归是一种线性分类器,针对的是线性可分问题。利用logistic回归进行分类的主要思想是…

机器学习笔记(六)Logistic回归

目录 一、什么是Logistics回归 二、sigmoid函数 三、梯度上升法 四、代码实现 数据导入 决策边界 梯度上升 五、总结 一、什么是Logistics回归 logistic回归是一种广义线性回归(generalized linear model),因此与多重线性回归分析有很多相…