Matcher: Segment Anything with One Shot Using All-Purpose Feature Matching 论文精读

article/2025/11/9 16:41:30

Matcher: Segment Anything with One Shot Using All-Purpose Feature Matching

论文链接:[2305.13310] Matcher: Segment Anything with One Shot Using All-Purpose Feature Matching (arxiv.org)

代码链接:aim-uofa/Matcher: Matcher: Segment Anything with One Shot Using All-Purpose Feature Matching (github.com)[Code尚未开源]

文章目录

  • Matcher: Segment Anything with One Shot Using All-Purpose Feature Matching
    • 1. 背景和动机
      • 1.1 Integrating Foundation Models
      • 1.2 Matcher
    • 2. 方法
      • 2.1 Overview
      • 2.2 Correspondence Matrix Extraction
      • 2.3 Prompts Generation
        • 2.3.1 Patch-Level Matching
        • 2.3.2 Robust Prompt Sampler
        • 2.3.3 Controllable Masks Generation
          • Instance-Level Matching
          • Controllable Masks Merging
    • 3. 结果
      • 3.1 One-shot Semantic Segmentation
      • 3.2 One-shot Object Part Segmentation
      • 3.3 Video Object Segmentation
      • 3.4 Ablation Study
        • 3.4.1 Effect of Different Image Encoders
        • 3.4.2 Ablation Study of ILM
        • 3.4.3 Ablation Study of Bidirectional Matching
        • 3.4.4 Ablation Study of Different Mask Proposal Metrics
        • 3.4.5 Effect of the Number of Frames for VOS
      • 3.5 Qualitative Results

1. 背景和动机

1.1 Integrating Foundation Models

在大规模数据集上预训练后,大语言模型(Large Language Model,LLMs),例如ChatGPT,革新了NLP领域,在一些zero-shot以及few-shot任务上,展现出了极强的迁移和泛化能力。

计算机视觉领域近期也出现了一些类似的基础模型:

  • Large-Scale Image-Text Contrast Pre-Training
    • [2103.00020] Learning Transferable Visual Models From Natural Language Supervision (arxiv.org)(CLIP)
    • [2102.05918] Scaling Up Visual and Vision-Language Representation Learning With Noisy Text Supervision (arxiv.org)(ALIGN)
  • Learns All-Purpose Visual Features From Raw Image Data Alone
    • [2304.07193] DINOv2: Learning Robust Visual Features without Supervision (arxiv.org)
  • Class-agnostic Segmentation
    • [2304.02643] Segment Anything (arxiv.org)

类似于CLIP、ALIGN、DINOv2这类基础模型,虽然其在一些下游任务中表现出了较强的zero-shot迁移能力,但是其在下游任务中使用时,仍然需要配合任务特定的heads作为ImageEncoder来使用,这限制了其在真实世界中的泛化应用。

而SAM本身是一个Class-Agnostic Segmenter,无法提取高级的语义信息,这也限制了其在真实开放图像理解中的应用。

本文指出,虽然这些基础模型独立使用还存在一定的有限性,但将其结合起来,可以取得协同增效效应,同时提升分割质量和在开放世界中的泛化能力。

目前已经有一些优秀的工作进行了相关尝试:

  • Grounded-Segment-Anything

但这些工作中的各个模型仍然是独立运行的,一个模型的输出会直接作为另一个模型的输入,在模型运行过程中的累积误差无法被消除。因此,需要探索更为高效、合理的基础模型集成方案。

1.2 Matcher

基于以上发现,本文重新思考了不同视觉基础模型的集成策略。

作者指出,SAM其实用性受到两个方面的限制:

  • 缺乏语义信息
  • 分割结果以模棱两可的Mask呈现

为了解决这些问题,本文提出仅使用一个示例并且不进行任何训练的情况下,实现Segment Anything,即OneShot Segment Anything。

在实现OneShot Segment Anything时,本文考虑了两种特征多样性:

  • Semantic Diversity
    • Semantic Diversity包括实例级别和语义级别感知
    • 本文主要是通过一个All-purpose Feature Matching方案实现
  • Structural Diversity
    • Structural Diversity意味着多种语义粒度,从部分到整体,再到多个实例
    • 本文主要是通过Prompt-based SAM来实现

基于以上考虑,本文提出了Matcher,一个无需训练的OneShot Segment Anything框架,其结合了一个通用特征提取模型(例如DINOv2)和一个无类别分割模型(例如SAM)。

但是简单地结合DINOv2和SAM无法取得令人满意的效果,例如,模型倾向去生成匹配的异常值和假阳性的Mask预测。

为了解决以上问题,本文提出了以下策略:

  • Bidirectional Matchting Strategy:用于实现准确的图像间语义密集匹配
  • Robust Prompt Sampler:用于进行Mask Propose,提升Mask Proposals的多样性,同时抑制由于异常匹配点带来的假阳性Mask预测
  • Instance-Level Matching:用于选择高质量的masks
  • Controllable Masks Merging:通过控制Merged Mask的数量,Matcher可以生成可控的Mask输出。

2. 方法

2.1 Overview

image-20230604161710440

Matcher 是一个无需训练的框架,通过集成一个通用特征提取模型(例如 DINOv]、CLIP 和 MAE )和一个无类别分割模型(SAM),其可以实现OneShot Segment Anything。

对于一个给定的参考图像 x r x_r xr及其Mask m r m_r mr,Matcher可以在目标图像 x t x_t xt中分割具有相同语义信息的目标或者部位。

上图是Matcher的概览图,其主要包括三个部件:

  • Correspondence Matrix Extraction (CME)
  • Prompts Generation (PG)
  • Controllable Masks Generation (CMG)

其OneShot Segment Anything流程大致如下:

  1. 通过计算 x r x_r xr x t x_t xt图像特征之间的的相似度,来提取Correspondence Matrix
  2. 进行Patch-Level Matching (PLM) 获取匹配点,再采用Robust Prompt Sampler来采样部分质量高的匹配点,用于生成一些prompts(Point、Center以及Box)。
  3. 将上述prompts输入到SAM中,生成初始的Mask Proposals。
  4. 进行参考图像和Mask Proposals之间的Instance-Level Matching (ILM),以选取高质量的Masks
  5. 使用**Controllable Masks Merging (CMM)**完成最终的Mask的生成

2.2 Correspondence Matrix Extraction

Matcher使用一些开箱即用的Image Encoders去提取参考图像和目标图像的特征。

对于 x r x_r xr x t x_t xt,Image Encoder将会输出Patch-Level的features z r , z t ∈ R H × W × C z_r,z_t \in \mathbb{R}^{H \times W \times C} zr,ztRH×W×C

Matcher会通过计算两个特征Patch-wise的相似度来探索目标图像上参考Mask的最佳匹配区域。

Correspondence Matrix S ∈ R H W × H W \mathbf{S} \in \mathbb{R}^{HW \times HW} SRHW×HW定义如下:
( S ) i j = z r i ⋅ z t j ∥ z r i ∥ × ∥ z t j ∥ (\mathbf{S})_{i j}=\frac{\mathbf{z}_r^i \cdot \mathbf{z}_t^j}{\left\|\mathbf{z}_r^i\right\| \times\left\|\mathbf{z}_t^j\right\|} (S)ij=zri× ztj zriztj
其中 ( S ) i j (S)_{ij} (S)ij表示第 i − t h i-th ith 来自 z r z_r zr的Patch Feature z r i z_r^i zri 和第 j − t h j-th jth 个来自 z t z_t zt的Patch Feature z t j z_t^j ztj之间的余弦相似度,上式可以以一个更为紧凑形式表示为: S = sim ⁡ ( z r , z t ) \mathbf{S}=\operatorname{sim}\left(\mathbf{z}_r, \mathbf{z}_t\right) S=sim(zr,zt)

2.3 Prompts Generation

对于一个给定的Dense Correspondence Matrix,可以通过选取目标图像中最相似的一些Patch来获取一个粗糙的分割Mask。然而这种简单的方式,会导致不准确、支离破碎以及其他异常分割结果。

因此,本文考虑使用Correspondence Feature去生成高质量的Point、Box,以用于promptable segmentation,该流程包括一个Bidirectional Patch Matching以及一个Diverse Prompt Sampler。

2.3.1 Patch-Level Matching

在一些困难场景,例如相似的上下文信息、多个实例等,Image Encoder可以会预测一些错误的匹配结果,本文提出了一个Bidirectional Patch Matching策略,去减少这些异常匹配。

image-20230604173359885

上图是Bidirectional Patch Matching策略的流程图,其大致步骤如下:

  1. 使用Forward Correspondence Matrix S → = sim ⁡ ( P r , z t ) \mathbf{S}^{\rightarrow}=\operatorname{sim}\left(P_r, \mathbf{z}_t\right) S=sim(Pr,zt) 在参考Mask的所有点 P r = { p r i } i = 1 L P_r=\left\{\mathbf{p}_r^i\right\}_{i=1}^L Pr={pri}i=1L z t z_t zt之间进行二分匹配(和DETR上进行Object和Target进行匹配的方式一样,可以参考DETR | 基于匈牙利算法的样本分配策略_detr 匈牙利_Clichong的博客-CSDN博客),在目标图像上获得Forward Matched Points P t → = { p t i } i = 1 L P_t^{\rightarrow}=\left\{\mathbf{p}_t^i\right\}_{i=1}^L Pt={pti}i=1L
  2. 然后再进行另一个二分匹配,即 P t → P_t^{\rightarrow} Pt z t z_t zt之间的反向匹配,使用Reverse Correspondence Matrix S ← = sim ⁡ ( z r , P t → ) \mathbf{S}^{\leftarrow}=\operatorname{sim}\left(\mathbf{z}_r, P_t^{\rightarrow}\right) S=sim(zr,Pt)去获得在参考图像上的Reversed Matched Points P r ← = { p r i } i = 1 L P_r^{\leftarrow}=\left\{\mathbf{p}_r^i\right\}_{i=1}^L Pr={pri}i=1L
  3. 最终过滤掉那些对应Reverse Points不在参考Mask区域内的前向点,最终的匹配点集合为 P ^ = { p t i ∈ P t → ∣ p r i \hat{P}=\left\{\mathbf{p}_t^i \in P_t^{\rightarrow} \mid \mathbf{p}_r^i\right. P^={ptiPtpri in m r } \left.m_r\right\} mr}

简单来说:

根据二分匹配,将参考图像对应Mask上的所有点投射到目标图像上,再根据二分匹配将投射到目标图像上的所有点再投射回原参考图像上,检查哪些点经过投射后,不再再落在参考图像原Mask区域内了,这些点就不是匹配点。

2.3.2 Robust Prompt Sampler

为了使得Matcher可以在不同语义粒度(部分、整体以及多实例)上实现鲁棒的分割,本文提出了一个Robust Prompt Sampler去生成多样且有意义的Mask Proposals。

其步骤如下:

  1. 使用k-means++算法,根据位置将匹配点 P ^ \hat{P} P^聚类为 K K K个簇 P ^ k \hat{P}_k P^k
  2. 接下来采样以下三种子集作为prompts
    1. Patch-Level Prompts P p ⊂ P ^ k P^p \subset \hat{P}_k PpP^k :在每个簇内采样
    2. Instance-Level Prompts P i ⊂ P ^ P^i \subset \hat{P} PiP^ :在所有匹配点内采样
    3. Global Prompts P g ⊂ C P^g \subset C PgC :在所有簇中心点 C = { c 1 , c 2 , … , c k } C=\left\{c_1, c_2, \ldots, c_k\right\} C={c1,c2,,ck}内进行采样
  3. 最后增加参考点 P ^ \hat{P} P^的Bounding Box作为Box Proposal

Robust Prompt Sampler这种策略不仅增加了Mask Proposals的多样性,而且还抑制了由匹配异常值引起的碎片化假阳性Mask预测。

2.3.3 Controllable Masks Generation

Image Encoder 提取的目标边缘特征会混淆背景信息,导致一些异常激活,这些异常激活点可能会被选择作为prompt,从而生成一些假阳性Mask预测。

为了解决该问题,Matcher进一步通过Instance-Level Matching模块从Mask Proposals中选择高质量的Mask,然后合并选择的Masks以获得最终的目标Mask。

Instance-Level Matching

Matcher进行参考Mask和Mask Proposals之间的Instance-Level Matching,用于选择好的Masks。

本文将该匹配问题看作是Optimal Transport问题,并且使用Earth Mover’s Distance (EMD)去计算Masks内密集语义特征之间的结构距离(记作 e m d emd emd),以确定Masks之间的相关性(这个部分可以参考:机器学习工具(二)Notes of Optimal Transport - 知乎 (zhihu.com))。

除此之外,本文还提出了额外两个Mask Proposal Metrics,用于衡量Mask Proposal的质量:
purity  = Num ⁡ ( P ^ m p ) Area ⁡ ( m p ) \text { purity }=\frac{\operatorname{Num}\left(\hat{P}_{m p}\right)}{\operatorname{Area}\left(m_p\right)}  purity =Area(mp)Num(P^mp)
coverage  = Num ⁡ ( P ^ m p ) Num ⁡ ( P ^ ) \text { coverage }=\frac{\operatorname{Num}\left(\hat{P}_{m p}\right)}{\operatorname{Num}(\hat{P})}  coverage =Num(P^)Num(P^mp)

其中 P ^ m p = { p t i ∈ P t → ∣ p t i in  m p } \hat{P}_{m p}=\left\{\mathbf{p}_t^i \in\right.\left.P_t \rightarrow \mid \mathbf{p}_t^i \text { in } m_p\right\} P^mp={ptiPt→∣pti in mp} Num ⁡ ( ⋅ ) \operatorname{Num}(\cdot) Num()表示Points的数目, Area ⁡ ( ⋅ ) \operatorname{Area}(\cdot) Area()表示Mask的面积, m p m_p mp表示Mask Proposal。
score  = α ⋅ ( 1 − emd  ) + β ⋅ purity  ⋅ coverage  λ , \text { score }=\alpha \cdot(1-\text { emd })+\beta \cdot \text { purity } \cdot \text { coverage }{ }^\lambda,  score =α(1 emd )+β purity  coverage λ,
其中 α , β \alpha, \beta α,β以及 λ \lambda λ都是平衡系数。

Matcher可以使用提出的度量指标score,通过适当的阈值过滤假阳性Mask预测,然后可以TopK个分数最高的Mask进行输出。

Controllable Masks Merging

通过控制最终合并的Masks的数目,Matcher 可以为目标图像中具有相同语义的实例生成可控的Mask输出。

3. 结果

Matcher默认使用DINOv2(ViT-L/14)作为Image Encoder,SAM(ViT-H)作为Segmenter。

3.1 One-shot Semantic Segmentation

image-20230604191000909

可以看出,Matcher在无需任何训练微调的情况下,超越了其他SOTA结果,接近SegGPT(SegGPT的训练数据包括COCO)结果。

对比PerSAM的结果可以看出,仅依赖于SAM输出的结果对于语义任务泛化能力较差。

3.2 One-shot Object Part Segmentation

image-20230604191343191

即使SAM具有在三个层次(whole, part, and subpart)上分割任意物体的能力,但是由于其缺乏语义信息,其无法区分一些模棱两可的Masks。

而Matcher则通过结合All-Purpose Feature Extractor,大大提升了SAM的细粒度Object Part Segmentation能力。

3.3 Video Object Segmentation

image-20230604191833653

在没有在视频数据集上训练的情况下,Matcher可以取得和在视频数据集上训练过的模型相当的性能。

3.4 Ablation Study

image-20230604192137171

3.4.1 Effect of Different Image Encoders

对比CLIP、MAE,DINOv2在所有数据集上,都取得了更优的性能。

  • CLIP:由于文本-图像对比预训练限制了学习复杂的像素级信息,CLIP不能精确地匹配图像块。

  • MAE:虽然MAE可以通过Mask图像来提取像素级特征,但它的表现很差。作者怀疑,MAE提取的块级特征混淆了周围块的信息,导致错误的特征匹配。

  • DINOv2:通过图像级和块级判别式自监督学习预训练,DIVOv2提取了通用的视觉特征,并展示了令人印象深刻的块级特征匹配能力。

3.4.2 Ablation Study of ILM

ILM极大地提升了模型的分割能力。

3.4.3 Ablation Study of Bidirectional Matching

从结果可以看出,Reverse Matching效果很差,Forward Matching已经可以取得尚可的效果,但Bidirectional Matching可以取得更佳的性能。

3.4.4 Ablation Study of Different Mask Proposal Metrics

对于不同的数据集,三种指标的效果不同:

  • 对于COCO数据集来说,emd指标相较于purity和coverage,更为重要
  • 对于DAVIS 2017数据集来说,purity和coverage则更为重要
  • 对于FSS数据集来说,两者效果相当

当同时结合以上指标时,都能取得更好的效果。

3.4.5 Effect of the Number of Frames for VOS

随着帧数的增加,效果会逐渐提升,在四帧时效果最优。

3.5 Qualitative Results

image-20230604193254235

image-20230604193316299


http://chatgpt.dhexx.cn/article/NySf6dUI.shtml

相关文章

【问题记录】关于百度网盘客户端打不开

问题描述 双击桌面图标没有任何反应,用管理员模式也是没什么反应。 问题追踪 按ctrlshiftesc打开任务管理器,查看到百度网盘的一个升级程序在运行中,注意升级程序的网络一栏,表明该进程在下载东西,但是速度很慢 在…

百度网盘的最新插件(懂得都懂)

下面先给大家介绍一下油猴插件。 这个插件为什么叫油猴? 现在我们经常提到的油猴插件,常指Tampermonkey,但Tampermonkey翻译过来是叫篡改猴,为什么会叫油猴呢?原因是因为另一个插件Greasemonkey,它翻译过…

求和:1-1/2+1/3-...1/n(JAVA)

所用知识: 1.输入输出语句 2.数据类型的自动转换 3.for循环控制语句 4.if条件控制语句 5.赋值语句 6.判断语句 import java.util.Scanner; class samp_5{public static void main(String[] args){Scanner snew Scanner(System.in);System.out.print("请输入数…

函数 1+1/2+1/3+…1/n

题目&#xff1a; 编写函数&#xff0c;求11/21/3…1/n。要求在主函数中输入n的值&#xff0c;并输出结果 代码&#xff1a; #include<stdio.h> #include<stdlib.h> int main() {int n;scanf("%d",&n);float num0;for(int i0;i<n;i){num1.0/(i…

《红楼梦》各版本总结

本文主要参考洪邑四维馆传人的 [文章][1] 对《红楼梦》的各版本和《红楼梦》脂评本作了图形化的展示。 受小博主所见所识限制&#xff0c;其中错误之处在所难免&#xff0c;恭请不吝赐教。 [1]&#xff1a;https://www.jianshu.com/p/474ea4f59081

《红楼梦》的作者真的是曹雪芹吗?

原文链接 随狂风去 ​ 尚书令 等 19,569 人赞同了该回答 作者名字确实是叫曹雪芹&#xff0c;但此曹雪芹绝不是江宁织造府的那位“曹雪芹”。 谈这个问题&#xff0c;必须先认识到一点&#xff1a;曹雪芹这三个字它只是个笔名&#xff0c;红楼的作者&#xff0c;在真实历史中&a…

引用还是传值——被打脸后才发现多年的理解是错的

这是一个很基础的问题&#xff0c;如果你已经理解透彻了&#xff0c;其实可以不需要往下看&#xff08;如果理解没错的话&#xff09;&#xff0c;因为相信你已经知道了答案&#xff0c;本篇主要是解释给和我一样一直以来有这样误解的人&#xff0c;事实上这是一个简单的问题&a…

一个页面同时请求多个接口,超过6个请求之后,stallled时间过长

Network Timing 使用Chrome浏览器请求多个接口时发现前面的请求Network Timing中stalled时间明显较短&#xff0c;到第四个请求时stalled时间开始加长&#xff0c;超过6个请求之后&#xff0c;stallled时间过长&#xff0c;导致接口整体请求时间变长&#xff0c;页面渲染变慢。…

疫情期间再读三体——读后感

最近疫情持续的时间有点长&#xff0c;感觉在家挺无聊的&#xff0c;正好《我的三体--章北海传》完结了&#xff0c;这部动画真的是圆了三体迷的重现三体书中的场景和意境的的一个梦想。章北海是书中的一个重要人物&#xff0c;也是当前这部动漫的主角&#xff0c;他为人类文明…

实验十七 VLAN间的三层通信

实验十七 VLAN间的三层通信 配置要求&#xff1a; 通过三层交换机实现VLAN间互通 通过单臂路由实现VLAN间互通 网络拓扑图&#xff1a; 操作步骤&#xff1a; 一、 通过三层交换机实现VLAN间互通 1、配置交换机LSW1的接口为trunk接口&#xff0c;g0/0/1口允许vlan 10通过&#…

科幻小说《三体》读书笔记范文解读

科幻小说《三体》读书笔记范文解读&#xff1a; 《三体》这本书如雷贯耳了很久很久&#xff0c;只是听很多人说&#xff0c;文科生读不懂这本书&#xff0c;畏难情绪作祟&#xff0c;让我一直下不定决心来啃这块硬骨头。直到去年&#xff0c;朋友阿特说他买了这套书闲置在一边&…

DTI-ATS入门(2):DTI协议纵览

本文来自自学过程中所记的笔记&#xff0c;可能有不少错漏与胡言乱语&#xff0c;仅供参考&#xff0c;建议主要以ARM官方文件进行参考。原参考文档官网可下载&#xff0c;为了方便各位&#xff0c;我也上传了&#xff0c;需要的自取; 链接&#xff1a;https://pan.baidu.com/s…

讯飞星火_VS_文心一言

获得讯飞星火认知大模型体验授权&#xff0c;第一时间来测试一下效果&#xff0c;使用申请手机号登录后&#xff0c;需要同意讯飞SparkDesk体验规则&#xff0c;如下图所示&#xff1a; 同意之后就可以进行体验了&#xff0c;界面如下&#xff1a; 讯飞星火效果体验 以下Promp…

你可能不知道的看片方式

目录 操作教程 操作教程 进入360极速浏览器的扩展中心 下载插件进入网站找到插件并下载安装进入管理面板运行脚本随意阅片 少侠别走 如果某天不行了&#xff0c;就更新一下脚本 你的赞与收藏对我很重要 System.out.println("我选择滑稽取宠");

科研不知娱乐滋味了,找找美剧看看

英文名:《CSI》 中文名:《犯罪现场调查》 推荐值:★★★★★ 首播时间:2000年10月06日 《犯罪现场调查》作为目前为数不多的老牌剧集,自2000年10月在美国CBS电视网首播,便立刻受到了观众的追捧,如今每周都有过千万的观众等着观看CSI们如何通过蛛丝马迹破解一个个谜案…

吴佳琳の爱宠大机密「原创歌曲我家有只《小笨蛋》」

气温回暖,柳絮飘飘, 真想感叹一句,这个寒冬终于即将过去了, 也迎来了春暖花开的好时节。 春日里琳大侠最讨厌的事情, 大概就是家里养的比熊小可爱——毛球 老是掉一地毛吧! 每次新衣服上都会粘着毛球的头发丝儿。 而家里的地上床上也都是她的小玩具和掉落的毛发。 琳大侠…

主人给狗狗扔零食,小狗无奈吐槽,教你制作搞笑配音短视频

主人给狗狗扔零食&#xff0c;小狗无奈吐槽&#xff0c;教你制作搞笑配音短视频 有时候&#xff0c;为自家的毛孩子拍摄了一段有趣的短视频之后&#xff0c;我们其实还可以尝试为它们配音&#xff0c;不仅可以让整个短视频更加的有趣&#xff0c;而且也更容易吸引粉丝&#xf…

圣诞氛围拉满,《小鬼当家》原版取景地首次对外开放入住

北京2021年12月2日 /美通社/ -- 步入圣诞月&#xff0c;热闹温馨的节日氛围变得更为浓厚。在许多人的童年记忆中&#xff0c;《小鬼当家》主人公在圣诞夜与窃贼斗智斗勇的经典桥段给大家带来了许多欢笑与感动。在清脆的圣诞铃声已然敲响的12月&#xff0c;Airbnb爱彼迎邀房客梦…

最近很火的配音软件|绝不允许有人错过这样的宝藏工具

最近各大短视频平台&#xff0c;出现了各种各样自然且情感丰富的配音。很多朋友非常好奇&#xff0c;自己刷到好几个博主&#xff0c;用的都是这个声音&#xff0c;难道找的都是一个配音员吗&#xff1f; 当然不是&#xff01;其实啊&#xff0c;这些自然又富有情感的声音&…