百面深度学习:基于度量学习的元学习模型

article/2025/11/10 19:23:54

文章目录

  • Q1 元学习中非参数方法相比于参数方法的优点?
  • Q2 如何用度量学习和注意力机制来改造基于最邻近的元学习方法?

更多基础知识可以查看前文内容 《百面深度学习》之元学习

基于度量学习(Metric Learning)的元学习方法,是基于最邻近方法的元学习的延伸。

知识点: 灾难性忘却(catastrophic forgetting)、 度量学习、外部记忆、注意力机制

Q1 元学习中非参数方法相比于参数方法的优点?

  • 非参数方法: 在新任务上没有参数学习的过程
  • 参数方法:在新任务上需要继续微调模型

参数方法的缺点:

  • 训练使得新任务的学习过程比较慢,达不到快速学习的目的,且不适合样本很少的情况。
  • 微调过程会受到新任务自身携带的噪声等影响,让原先在 D m e t a − t r a i n D_{meta-train} Dmetatrain上训练好的模型参数值被错误信息覆盖,这种现象称为灾难性忘却

非参数方法的优点:

  • 不依赖梯度下降的优化过程
  • 不修改预训练的参数信息。新样本信息不会相互干扰,避免了灾难性忘却。
  • 可以快速学习,尤其是适用于样本少的情况。

Q2 如何用度量学习和注意力机制来改造基于最邻近的元学习方法?

新模型结构

  1. 给定单个任务的数据集 D t a s k = { D t r a i n , D t e s t } D_{task} = \left\{D_{train},D_{test}\right\} Dtask={Dtrain,Dtest}, 将 D t r a i n D_{train} Dtrain定义为一个由<样本,标签>对构成的支持集,视作一个外部记忆(external memory)
  2. 预测 D t e s t D_{test} Dtest中的样本时,对这个外部记忆进行快速的查找,灵活的访问 D t r a i n D_{train} Dtrain的每一个样本。
  3. 访问的方法采用软注意力(soft-attention)机制,这是一种形如加权平均的访问机制,完全可导,方便利用梯度下降进行端到端的学习。

对元学习进行建模
元学习的泛函含义: 从单个任务t到该任务分类器函数的映射: 即 t ↦ f ( ⋅ , D t r a i n t ; Θ ) t \mapsto f(\cdot,D^t_{train}; \Theta) tf(,Dtraint;Θ). 也就是说元学习会为每个任务生成一个分类器,不同任务基于不同的训练集,但共享元参数 Θ \Theta Θ.

实现 f ( ⋅ , D t r a i n t ; Θ ) f(\cdot,D^t_{train}; \Theta) f(,Dtraint;Θ)的具体结构
在这里插入图片描述
如何 7.4所示 g Θ g_{\Theta} gΘ h Θ h_{\Theta} hΘ 是两个计算嵌入向量的神经网络结构,前者负责计算训练样本的嵌入向量,后者负责计算测试样本的。 (二者也可以是同一个网络)。

  • 基于训练样本的嵌入向量,构造外部记忆。 假设 z i = g Θ ( x i ) z_i = g_{\Theta}(x_i) zi=gΘ(xi)为样本 x i x_i xi的嵌入向量,对应的类别标签为 y i y_i yi, 将 ( z i , y i ) (z_i,y_i) zi,yi存储在记忆模块的一个槽中,访问时,基于 z i z_i zi计算匹配权重,匹配返回 y i y_i yi。 这样的记忆模块称为关联记忆(associative memory)
  • 对测试样本x,先计算他的嵌入向量 z = h Θ ( x ) z = h_{\Theta}(x) z=hΘ(x),再利用注意力机制访问记忆模块以获取最终的标签,公式为 y = ∑ i a ( z , z i ) y i y = \sum_ia(z,z_i)y_i y=ia(z,zi)yi , 其中 a ( ⋅ ) a(\cdot) a可以是一个神经网络。

注意力机制的两两计算方法,本质是核方法(kernel method),所以也称为注意力核(attention kernel)

将整个训练集 D t r a i n D_{train} Dtrain作为支持集S 输入到网络, 即 g Θ ( x i , S ) g_\Theta(x_i,S) gΘ(xi,S) h Θ ( x , S ) h_\Theta(x, S) hΘ(x,S), 这样嵌入网络就拥有了全局视野。

总结
明显缺点: 外部记忆的大小会随着支持集的样本数增大而增大,没有上限。


http://chatgpt.dhexx.cn/article/r4yGlrgQ.shtml

相关文章

行人重识别-度量学习

行人重识别-度量学习 前言 和前面介绍到的表征学习一样&#xff0c;度量学习也是基于全局特征学习的一种方法&#xff0c;且被广泛用于图像检索领域。不同于表征学习通过分类或者验证的方式&#xff0c;度量学习目的在于通过网络学习两张图片的相似度。在行人重识别问题上&am…

度量学习方法 - KISSME

KISSME&#xff08;keep it simple and straightforward metric&#xff09;, 属于有监督的线性度量学习方法&#xff0c;本质上还是学习马氏距离中的矩阵M. 推导 首先&#xff0c;认为对于样本对&#xff0c;它们之间的差异程度&#xff08;dissimilar&#xff09;可以通过似然…

论文 基于度量学习的小样本学习研究 阅读心得

论文主要工作&#xff1a; 本文提出带间隔的小样本学习&#xff0c; 提升了所学习嵌入表示的质量。 为引入间隔&#xff0c; 本文根据小样本场景特点提出了多路对比损失&#xff0c; 使得小样本学习模型可以学习到一个更加具有判别性的度量空间&#xff0c;同时泛化误差可以减小…

度量学习1

度量学习&#xff1a; 度量学习作为小样本学习中主要方法之一&#xff0c;在解决小样本问题上应用较广&#xff0c;本篇博客主要介绍几篇metric learning的基础文献。 分别是&#xff1a; &#xff08;1&#xff09;Siamese Neural Networks for One-shot Image Recognition &a…

度量学习DML之Circle Loss

度量学习DML之Contrastive Loss及其变种_程大海的博客-CSDN博客 度量学习DML之Triplet Loss_程大海的博客-CSDN博客 度量学习DML之Lifted Structure Loss_程大海的博客-CSDN博客 度量学习DML之Circle Loss_程大海的博客-CSDN博客 度量学习DML之Cross-Batch Memory_程大海的…

度量学习DML之MoCO

度量学习DML之Contrastive Loss及其变种_程大海的博客-CSDN博客 度量学习DML之Triplet Loss_程大海的博客-CSDN博客 度量学习DML之Lifted Structure Loss_程大海的博客-CSDN博客 度量学习DML之Circle Loss_程大海的博客-CSDN博客 度量学习DML之Cross-Batch Memory_程大海的…

【ReID】表征学习和度量学习

文章目录 1.表征学习1.1分类损失1.2验证损失1.3表征学习总结 2.度量学习2.1 Introduction2.2 对比损失2.3 三元组损失2.4 改进三元组损失2.5 四元组损失2.6 TriHard loss2.7 Triple loss with adaptive weights2.8 度量学习总结 3. 总结 表征学习和度量学习是行人重识别最基本的…

度量学习---综述

introduction 度量学习的对象通常是样本特征向量的距离&#xff0c;度量学习的目的是通过训练和学习&#xff0c;减小或限制同类样本之间的距离&#xff0c;同时增大不同类别样本之间的距离。 度量学习 (Metric Learning) 距离度量学习 (Distance Metric Learning&#xff0…

Deep metric learning 深度度量学习 总结

最近的工作用是深度度量学习的改进&#xff0c;这里将DML进行一个总结。 根据个人的理解&#xff0c;开篇用一句话介绍一下度量学习&#xff1a; “不同于分类学习&#xff0c;度量学习是通过学习数据之间的相似性程度来获得一个更有意义或者说更具可分性的特征空间。” Tra…

度量学习方法总结

目录 一.距离度量 闵可夫斯基距离 欧式距离&#xff08;Euclidean Distance&#xff09;&#xff1a; 标准化欧氏距离 (Standardized Euclidean distance ) 曼哈顿距离(ManhattanDistance) 切比雪夫距离&#xff08;Chebyshevdistance&#xff09; 马氏距离 马氏距离代…

度量学习

度量学习&#xff08;Metric Learning&#xff09; 度量&#xff08;Metric&#xff09;的定义 在数学中&#xff0c;一个度量&#xff08;或距离函数&#xff09;是一个定义集合中元素之间距离的函数。一个具有度量的集合被称为度量空间。 度量学习&#xff08;Metric Learni…

度量学习(Metric learning、损失函数、triplet、三元组损失、fastreid)

定义 Metric learning 是学习一个度量相似度的距离函数:相似的目标离得近,不相似的离得远. 一般来说,DML包含三个部分&#xff0c; 如下图.。 1&#xff09;特征提取网络&#xff1a;map embedding 2&#xff09;采样策略&#xff1a;将一个mini-batch里的样本组合成很多个sub…

度量学习Metric Learning

度量学习 (Metric Learning) 距离度量学习 (Distance Metric Learning&#xff0c;DML) 相似度学习 度量学习 是指 距离度量学习&#xff0c;Distance Metric Learning&#xff0c;简称为 DML&#xff0c;是人脸识别中常用传统机器学习方法&#xff0c;由Eric Xing在NIPS 2…

度量学习(Metric Learning)基础概念

一、什么是度量学习&#xff1f; 度量学习 (Metric Learning) 距离度量学习 (Distance Metric Learning&#xff0c;DML) 相似度学习。 在数学中&#xff0c;一个度量&#xff08;或距离函数&#xff09;是一个定义集合中元素之间距离的函数。一个具有度量的集合被称为度量空…

度量学习——总结

传统方法 User guide: contents — metric-learn 0.6.2 documentation 深度学习 基于深度学习的度量学习方法大都由两个部分组成&#xff1a;特征提取模块和距离度量模块。距离度量模块的任务是使同一类样本间的距离更靠近&#xff0c;而不同类样本间的距离更远离。这一模块…

ffmpeg命令分析-r

本系列 以 ffmpeg4.2 源码为准&#xff0c;下载地址&#xff1a;链接&#xff1a;百度网盘 提取码&#xff1a;g3k8 之前的文章分析 FFMpeg 工程的 do_video_out() 函数的时候&#xff0c;建议不关注 delta0&#xff0c;delta&#xff0c;nb0_frames&#xff0c;nb_frames 等变…

使用FFmpeg命令处理音视频

文章目录 前言一、ffprobe相关命令1.使用ffprobe查看音频文件的信息2.使用ffprobe查看视频文件的信息 二、ffplay相关命令1.基本的ffplay命令2.音视频同步命令 三、ffmpeg相关命令1.ffmpeg通用参数2.ffmpeg视频参数3.ffmpeg音频参数4.ffmpeg示例 总结 前言 FFmpeg是一套可以用…

ffmpeg-命令行详解

前言 ffmpeg是一个多媒体开发库&#xff0c;提供了关于音频和视频的工具。这个项目的官网是这里。 下载地址 ffmpeg提供了方便地控制台命令&#xff0c;可以在下载页面下载。三个平台&#xff08;windows&#xff0c;linux&#xff0c;macos&#xff09;都有打包好的可执行文…

ffmpeg命令分析-b:v

本系列 以 ffmpeg4.2 源码为准&#xff0c;下载地址&#xff1a;链接&#xff1a;百度网盘 提取码&#xff1a;g3k8 本系列主要分析各种 ffmpeg 命令参数 在代码里是如何实现的。a.mp4下载链接&#xff1a;百度网盘&#xff0c;提取码&#xff1a;nl0s 。 命令如下&#xff1a;…

FFmpeg命令详解

命令格式 功能 FFmpeg命令是在ffmpeg.exe可执行文件环境下执行&#xff0c;ffmpeg.exe用于音视频的转码&#xff0c;加水印&#xff0c;去水印&#xff0c;视频剪切&#xff0c;提取音频&#xff0c;提取视频&#xff0c;码率控制等等功能。 最简单的命令 ffmpeg -i input.a…