度量学习——总结

article/2025/11/10 21:39:43

传统方法

User guide: contents — metric-learn 0.6.2 documentation

深度学习

基于深度学习的度量学习方法大都由两个部分组成:特征提取模块和距离度量模块。距离度量模块的任务是使同一类样本间的距离更靠近,而不同类样本间的距离更远离。这一模块更多的实现方法是改进损失函数,对模型的学习更加“赏罚分明”。

基于正负样本对的方法

也可以称为基于对比学习的方法,抽出正负样本对学习。对比学习的方法现在正广泛的应用于学习更好的特征提取模块,即用自监督学习的方法来学习更好的特征表达,更强大的 backbone,如 MoCo、SimCLR 等。Contrastive Representation Learning | Lil'Log

而为了学习更好的距离度量模块,越来越多基于样本对的损失函数被提出:

Contrastive Loss

是最简单也最直观的损失函数:

直观上分析这个公式,当两个样本的标签相同时,模型的损失函数值为这两个样本在特征空间内的距离,这时梯度回传是为了使这两个样本更“靠近”。而当这两个样本的标签不同时,这里的 α 是 margin,当这两个样本对的在特征空间的距离大于 margin 时,就使损失为0,即不更新网络维持现状,当小于 margin 时,我们就惩罚模型,使这两个样本的距离不断逼近 margin。同时 margin 更重要的作用是避免模型欺骗损失函数,即将所有的样本都映射到特征空间的同一个点,学到一个“捷径”使损失不断接近0。

Triplet Loss

上面的方法只有一个样本对,Triplet Loss 则引入了正负样本对的概念。 

xa 称为 anchor 样本,xp 为正样本,xn 为负样本。这里的 margin 同样有避免模型将所有样本映射到特征空间中同一个点的作用。同时 Triplet Loss 的一个关键点是负例挖掘(Negative Samples Mining),将 anchor 样本与正样本间的距离尽可能限制到0附近,同时将 anchor 样本与负样本的距离推开至 margin 左右,

The only requirement is that given two positive examples of the same class and one negative example, the negative should be farther away than the positive by some margin.

Triplet Loss 实现:Triplet Loss and Online Triplet Mining in TensorFlow | Olivier Moindrot blog

Quadruplet Loss

是对 Triplet Loss 的更进一步,其中 xa、xp 和 xs 都属于同一类:

Structured Loss

Triplet Loss 中只考虑了一个负例,而忽略了其他负例。与 Triplet Loss 不同,Structured Loss 考虑的是 batch 中所有的正样本对,以及距离正样本对中两个点最近的负样本:

N-Pair Loss 也是考虑到 Triplet Loss 中的这个缺点而提出的,只不过处理方法与 Structured Loss 不同。

基于交叉熵的方法

上述基于对比方法的正负样本采样问题在多卡训练的情况下变得尤其复杂,而且不能保证具有相似标签的样本被很好地分开,为了解决这两个问题,越来越多基于交叉熵的方法被提出。这些方法都是基于最基本的交叉熵损失函数(也可以称为 softmax loss):

其中 wz+b 是输出分类结果前的那一个全连接层。将模型的输出,标签为 i 的特征向量 z,投影到类别 i 的权重 wi 上,从几何上来说这个结果就是 vector center ,即这个向量 z 在特征空间中的映射点。将在 MNIST 数据集上用 softmax loss 训练的网络中特征的分布可视化(左边为 train,右边为 val):

可以看到还有一些部分不能被很好地分开,即使是在这样简单的一个数据集上。

Center Loss

在 Softmax Loss 的基础上加上正则项,将不同类样本在特征空间内“推开”。

其中 z 是全连接层的输入,c 是可学习的向量,可以理解为每一个类中特征向量的移动平均值(moving mean vector)。

可以看到 Center Loss 将每一类聚类到类别中心,在特征空间内更好地将类别分开。

SphereFace

Center Loss 的问题是,我们不能预先知道数据集中各类别聚类中心在特征空间内是相互远离的,如果他们很靠近的话,这个正则项就起不了多大的作用。但是如果我们将每个类别的聚类中心放到距离特征空间“原点”相同的距离,即将聚类中心都映射到一个“圆”上,只要这个“圆”的半径够大,理论上我们就可以把各类别的聚类中心“推”的更加分散。这个“圆”其实就是一个超平面。这也就是 SphereFace 的做法,它是由 Softmax Loss 一步步进化而来:

由向量积的公式我们知道:

所以上述公式中的做法就是将各类别的权重 w 正则化,正则化后我们完成了将聚类中心“放置”在超平面上的操作,之后再将全连接层的偏置置0,为了可以更简单的分析。公式中的 θ 就是 z 和 wi 之间的夹角,它是大于0小于 pai 的。

在 Softmax Loss 推理时,我们将特征向量 z 通过全连接层,也就是将 z 映射到各个类别的权重上,哪一个结果大,那么它就属于哪一类。反应到下图中,将 z(图中的 x)在特征空间的映射向每一个类别的权重(W1 和 W2)做垂直平分线,这个交点到特征空间“原点”的距离即为分类依据,这个距离就是 Cosθ,也就是全连接层的输出

在 SphereFace 中,由于我们对 w 和 b 进行了一些操作,并且 z 进行了正则化是一个常数。所以当 z 和各类别的权重 w 之间的夹角 θ 更小,那么它就属于哪一类。这样的“决策边界”依然不能保证十分正确的分类,因为我们没有对 z 在特征空间的映射到各聚类中心点在超平面上的距离施加正则或者惩罚项。这也是 SphereFace 第二个创新点,margin μ。SphereFace 公式如下:

所以在推理时只有当 z 与一个类别 w 的夹角 μθ 大于与其他类别的夹角 θ 时,模型才会判定 z 属于这个类别。也就是说 θ 被限定到了如下区间:

通过损失函数影响模型,让模型将 z 映射到特征空间内更小的角度,这样在推理的时候可以更好地判别。下图可以看出 SphereFace 的效果,图中两个 w 之间的红线即为决策边界。

图1

SphereFace 开创了用角度距离来完成分类的先河,接下来的几种方法都是基于此提出。

CosFace

指出 SphereFace 用计算出的角度经过 Cos 函数输出特征向量的调整结果(或者说调整特征向量在特征空间内的映射),但是 Cos 函数不是单调的,所以给优化带来了困难。同时只通过角度的余弦值来判断属于哪一类的话,会导致类别间的距离有的大有的小,降低了区分能力。

CosFace 的做法是将特征向量 z 也进行正则化,同时加上两个超参数 s 和 m:

其中 s 是放缩系数,而 m 是 margin。直观理解是:将垂直平分线交点往特征空间“原点”拉近,类别中各样本在特征空间的映射就会更加靠近“原点”,如图1中每个类别画出的“圆弧”会更加小,及增大了决策边界的角度。

其中 s 和 m 的选择颇为讲究:

其中 K 是特征维度,C 是数据集中类别数,PW 是 expected minimum posterior probability of class center。随着类别数的增加,类别之间 cosine margin 的上限相应地减少。

ArcFace

论文:https://arxiv.org/pdf/1801.07698.pdf

对全连接层的分类输出进行调整,再计算交叉熵损失。

从 softmax loss 的看到这里,这张图就不难理解了。

对全连接层的输入和权重进行正则化后结果为 cosθ,再将其乘上一个超参数 s:

将 cos(θyi) 用 cos(θyi+m) 代替,这部分是 ArcFace 的核心,其背后的意义是是直接在角度空间(angular space)中最大化分类界限。而 CosFace 是将类别映射的更紧凑以期望来达到最大化分类界限的目的,与 ArcFace 在公式上的区别就是增加 margin 的位置。m 为超参数 margin:

下面代码算出的是 L3 中的指数函数 e 的输入,用 ArcFace 进行调整后输入到交叉熵损失中输出损失:

class ArcMarginProduct(nn.Module):r"""Implement of large margin arc distance: :Args:in_features: size of each input sampleout_features: size of each output samples: norm of input featurem: margincos(theta + m)"""def __init__(self, in_features, out_features, s=30.0,m=0.30, easy_margin=False, ls_eps=0.0, device="cpu"):super(ArcMarginProduct, self).__init__()self.in_features = in_featuresself.out_features = out_featuresself.s = sself.m = mself.ls_eps = ls_eps  # label smoothingself.weight = nn.Parameter(torch.FloatTensor(out_features, in_features))nn.init.xavier_uniform_(self.weight)self.easy_margin = easy_marginself.cos_m = math.cos(m)self.sin_m = math.sin(m)self.th = math.cos(math.pi - m)self.mm = math.sin(math.pi - m) * mself.device = devicedef forward(self, input, label):# --------------------------- cos(theta) & phi(theta) ---------------------cosine = F.linear(F.normalize(input), F.normalize(self.weight)) # F.normalize(input)、F.normalize(self.weight) 是公式中对输入和权重的正则化sine = torch.sqrt(1.0 - torch.pow(cosine, 2))phi = cosine * self.cos_m - sine * self.sin_m    # 三角公式if self.easy_margin:phi = torch.where(cosine > 0, phi, cosine)else:phi = torch.where(cosine > self.th, phi, cosine - self.mm)# --------------------------- convert label to one-hot ---------------------# one_hot = torch.zeros(cosine.size(), requires_grad=True, device='cuda')# one_hot = torch.zeros(cosine.size(), device=self.device)one_hot = torch.zeros_like(cosine)one_hot.scatter_(1, label.view(-1, 1).long(), 1)if self.ls_eps > 0:one_hot = (1 - self.ls_eps) * one_hot + self.ls_eps / self.out_features# -------------torch.where(out_i = {x_i if condition_i else y_i) ------------output = (one_hot * phi) + ((1.0 - one_hot) * cosine)output *= self.sreturn output

AdaCos

论文:https://openaccess.thecvf.com/content_CVPR_2019/papers/Zhang_AdaCos_Adaptively_Scaling_Cosine_Logits_for_Effectively_Learning_Deep_Face_CVPR_2019_paper.pdf

这篇文章中对 ArcFace 中的两个超参数 s 和 m 进行了消融实验,P 是 softmax 后归一化的后验概率:

对 s:

当 s 过小时,模型的分类概率达不到 1,这样模型无法做出“自信”的判断,就导致损失函数惩罚了正例;而当 S 过大时,模型过于自信,这时损失函数无法正确地惩罚负例。

对 m:

当 m 过大,当 θ 变得稍大时,模型就不会将其判断为这一类,可以证明加上了 margin 的损失函数比不加 margin 的损失函数使模型的预测的细粒度更小。

Sub-center ArcFace

论文:https://www.ecva.net/papers/eccv_2020/papers_ECCV/papers/123560715.pdf

解决了 Sphere Face、CosFace 和 ArcFace 对噪声数据敏感的问题,免去了数据清洗的工作更贴近日常生活中的数据。为每一类设定 K 个子中心而不是像之前的做法每一类中只有一个。这样样本的大部分都会靠近 dominant centers,而那些 noisy / hard sample 则会被推向其他的 undominant centers。

但这样做破坏了类内的紧致性,对此文章中的做法是当网络具有足够的识别能力后,直接去掉那些 undominant centers。同时引入了一个恒定的角度阈值来降低高置信噪声数据,在此之后在自动清理的数据集上从头开始重新训练模型。

其中

对应下列代码只是公式中 cosine, _ = torch.max(cosine_all, dim=2) 这个操作:

class ArcMarginProduct_subcenter(nn.Module):def __init__(self, in_features, out_features, k):super().__init__()self.weight = nn.Parameter(torch.FloatTensor(out_features * k, in_features))self.reset_parameters()self.k = kself.out_features = out_featuresdef reset_parameters(self):stdv = 1. / math.sqrt(self.weight.size(1))self.weight.data.uniform_(-stdv, stdv)def forward(self, features):cosine_all = F.linear(F.normalize(features), F.normalize(self.weight))cosine_all = cosine_all.view(-1, self.out_features, self.k)cosine, _ = torch.max(cosine_all, dim=2)return cosine

下面大部分都是 ArcFace 中的操作,其中 phi = torch.where(cosine > th.view(-1, 1), phi, cosine - mm.view(-1, 1)) 理解为引入了一个恒定的角度阈值来降低高置信噪声数据:

class ArcFaceLossAdaptiveMargin(nn.modules.Module):def __init__(self, margins, out_dim, s):super().__init__()self.crit = DenseCrossEntropy()self.s = sself.register_buffer('margins', torch.tensor(margins, device="cuda:0"))self.out_dim = out_dimdef forward(self, logits, labels):# ms = []# ms = self.margins[labels.cpu().numpy()]ms = self.margins[labels]cos_m = torch.cos(ms)  # torch.from_numpy(np.cos(ms)).float().cuda()sin_m = torch.sin(ms)  # torch.from_numpy(np.sin(ms)).float().cuda()th = torch.cos(math.pi - ms)  # torch.from_numpy(np.cos(math.pi - ms)).float().cuda()mm = torch.sin(math.pi - ms) * ms  # torch.from_numpy(np.sin(math.pi - ms) * ms).float().cuda()labels = F.one_hot(labels, self.out_dim)labels = labels.half() if CFG.MIXED_PRECISION else labels.float()cosine = logitssine = torch.sqrt(1.0 - cosine * cosine)phi = cosine * cos_m.view(-1, 1) - sine * sin_m.view(-1, 1)phi = torch.where(cosine > th.view(-1, 1), phi, cosine - mm.view(-1, 1))output = (labels * phi) + ((1.0 - labels) * cosine)output *= self.sloss = self.crit(output, labels)return loss

ArcFace with Dynamic Margin

为了应对严重的类别不均衡而提出,样本更少的类应该具有更大的 margin,以期望更好地与其他类分开。每一类的 margin:

其中 a 和 b 控制着 margin 的上下界,n 为各类别的样本数,λ 控制着这个函数的形状。

参考

Deep Metric Learning: a (Long) Survey – Chan Kha Vu


http://chatgpt.dhexx.cn/article/UfetqTnE.shtml

相关文章

ffmpeg命令分析-r

本系列 以 ffmpeg4.2 源码为准,下载地址:链接:百度网盘 提取码:g3k8 之前的文章分析 FFMpeg 工程的 do_video_out() 函数的时候,建议不关注 delta0,delta,nb0_frames,nb_frames 等变…

使用FFmpeg命令处理音视频

文章目录 前言一、ffprobe相关命令1.使用ffprobe查看音频文件的信息2.使用ffprobe查看视频文件的信息 二、ffplay相关命令1.基本的ffplay命令2.音视频同步命令 三、ffmpeg相关命令1.ffmpeg通用参数2.ffmpeg视频参数3.ffmpeg音频参数4.ffmpeg示例 总结 前言 FFmpeg是一套可以用…

ffmpeg-命令行详解

前言 ffmpeg是一个多媒体开发库,提供了关于音频和视频的工具。这个项目的官网是这里。 下载地址 ffmpeg提供了方便地控制台命令,可以在下载页面下载。三个平台(windows,linux,macos)都有打包好的可执行文…

ffmpeg命令分析-b:v

本系列 以 ffmpeg4.2 源码为准,下载地址:链接:百度网盘 提取码:g3k8 本系列主要分析各种 ffmpeg 命令参数 在代码里是如何实现的。a.mp4下载链接:百度网盘,提取码:nl0s 。 命令如下:…

FFmpeg命令详解

命令格式 功能 FFmpeg命令是在ffmpeg.exe可执行文件环境下执行,ffmpeg.exe用于音视频的转码,加水印,去水印,视频剪切,提取音频,提取视频,码率控制等等功能。 最简单的命令 ffmpeg -i input.a…

FFmpeg命令行转码

本文主要了解FFmpeg进行音视频编码转换。主要学习如下几个知识点: FFmpeg使用libx264进行H,264(AVC)软编码,使用libx265进行H.265(HEVC)软编码使用FFmpeg在MacOS环境下硬编码了解音频编码,MP3,AAC的参数设置编码 FFmpeg软编码H.…

ffmpeg命令行使用

查看视频信息 ffmpeg -i 视频名字视频名字这里输入前几个字符按 tab 键可以自动补全 返回结果: 红框之内的内容没什么用 编码器 :encoder : Lavf57.25.100 持续时间:Duration: 00:14:20.58, start: 0.000000, bitrate: 381 kb/s Duratio…

ffmpeg录屏命令

1.gdigrab抓屏 ffmpeg -f gdigrab -i desktop -q:v 0.01 -vcodec mpeg4 -f mp4 out.mp4-i 输入设备 -vcodec 视频编码格式 -f 视频封装格式 缺点只能录制视频,不能录制音频 2.dshow 下载安装screen capture recorder https://sourceforge.net/projects/screencap…

FFMPEG常用命令行

目录 命令格式: 1.获取视频信息 2.转视频/音频格式 视频格式转换 音频格式转换 3.音视频分离 4.图像处理 5.视频旋转 6.视频倒放&视频加速&视频减速 7.视频合并(两个10秒的视频合并为20秒): 8.视频拼接&…

FFmpeg命令介绍

FFmpeg 简介轶闻常用命令视频相关音频相关录制命令 简介 FFmpeg是一套可以用来记录、转换数字音频、视频,并能将其转化为流的开源计算机程序。使用C语言进行开发,采用LGPL或GPL许可证,可前往Github下载其源码。它提供了录制、转换以及流化音…

ffmpeg命令大全

ffmpeg命令大全 FFMPEG 目录及作用FFMPEG基本概念FFMPEG 命令基本信息查询命令主要参数视频参数音频参数录制录屏 分解与复用滤镜简单滤镜复杂滤镜 直播相关 前言 FFMPEG是特别强大的专门用于处理音视频的开源库。你既可以使用它的API对音视频进行处理,也可以使用它…

音视频ffmpeg——ffmpeg 命令大全

ffmpeg 命令参数 ffmpeg信息查询命令 ffmpeg 控制命令 主要参数: ◼ -i 设定输入流 ◼ -f 设定输出格式(format) ◼ -ss 开始时间 ◼ -t 时间长度 音频参数: ◼ -aframes 设置要输出的音频帧数 ◼ -b:a 音频码率 ◼ -ar 设定采样率 ◼ -ac 设定…

常见FFmpeg命令行全面分析

FFmpeg多媒体库支持的命令行调用分为三个模块:ffmpeg、ffprobe、ffplay。其中ffmpeg命令行常用于音视频剪切、转码、滤镜、拼接、混音、截图等;ffprobe用于检测多媒体流格式;ffplay用于播放视频。详情可查阅FFmpeg官方文档:ffmpeg…

ffmpeg 常用命令汇总

​​​​​​经常用到ffmpeg做一些视频数据的处理转换等,用来做测试,今天总结了一下,参考了网上部分朋友的经验,一起在这里汇总了一下。 1、ffmpeg使用语法 命令格式: ffmpeg -i [输入文件名] [参数选项] -f [格…

FFmpeg常用基本命令行

本文收集记录了笔者使用过的FFmpeg命令,亲测可用,并不是简单的copy别人的FFmpeg大全,下面的命令大部分都是本人测试成功过的,大家可以放心使用。 音视频技术是程序员日常生活中经常用到的,比如转码需求,同事…

Eclipse启动Tomcat逐渐变慢

现象 1、Eclipse用着用着发现启动Tomcat特别慢 原因 断点打多了,之前调试的断点没有取消,导致启动时加载断点,拖慢启动 解决方案 1、点击debug按钮 2、选择breakpoint选项 清空所有断点 3、重新启动

eclipse 解决启动慢、运行慢的方法总结(最全)

由于 CSDN 的目录只在固定地方显示,并不是很方便阅读,又占空间,所以本文章已同步更新到个人博客上,在个人博客上的文章,有滑动侧边目录栏,阅读体验更加,而且文章的样式也更为丰富,推…

eclipse卡慢解决办法

1.设置JVM运行内存 1.1编辑eclipse.ini 1.2 编辑eclipse.ini,设置jvm运行内存参数,最小内存:物理内存*0.2, 最大内存: 物理内存*0.6; 其中-vmargs为必须添加参数(-vmargs的意思是设置JVM参数),…

eclipse启动很慢调优

前几天装了个eclipse,发现真的启动很慢,而且运行程序也慢,检查了不是网络问题,jsp修改一下,一保存就卡死,要等十几秒,感觉不能忍,所以就上网找资料,但是都不全面,小编接下…

Eclipse 解决启动慢

般在不对eclipse进行相关设置的时候,使用eclipse总是会觉得启动好慢,用起来好卡,其实只要对eclipse的相关参数进行一些配置,就会有很大的改善。 加快启动速度 1.在eclipse启动的时候,它总是会搜索让其运行的jre&…