Supervised Discrete Hashing

article/2025/8/27 9:47:01

Supervised Discrete Hashing

2015 CVPR

  • 问题:
    处理施加在追踪的哈希码上的离散约束,使哈希优化具有挑战性(通常是NP- hard)。

  • 解决:
    提出了一个新的监督哈希框架,其中的学习目标是生成最优的二进制哈希码用于线性分类。
    通过引入一个辅助变量,我们对目标进行了重新模拟,使得它可以通过使用正则化算法来有效地求解,该算法的关键步骤之一是解决与NP-hard二值优化相关的正则化子问题。
    通过循环坐标下降,证明了该子问题具有解析解。
    因此,高质量的离散解最终可以以一种有效的计算方式获得,从而处理大规模数据集。

  • 应用:
    在四个大型图像数据集上评估SDH

  • 传统的算法:

    • 数据无关的哈希:
      LSH是最流行的数据无关方法之一,通过随机投影生成哈希函数,可度量多种距离(欧式、马氏等),缺点是需要较长的位来实现高准确率和召回率,导致存储较大。
    • 数据相关的哈希:
      紧凑的二进制码能有效高效地索引和组织大规模数据
      典型算法:
      线性哈希:unsupervised PCA Hashing、Iterative Quantiza-tion (ITQ) 、Isotropic Hashing、Supervised Minimal Loss Hashing (MLH)、Semi-Supervised Hashing (SSH)、LDA Hashing、Ranking-Based Supervised Hashing、 FastHash
      非线性哈希:BRE、RMMH、KSH、ITQ、SH、AGH、IMH

为了简化二进制码学习过程中所涉及的优化问题,大多数上述方法选择首先通过丢弃离散约束来解决松弛问题,然后对已解的连续解进行阈值(或量化),以获得近似的二进制解。但是可能由于累积的量化错误而使所得到的哈希函数效率较低。ITO通过正交旋转来减少量化误差,但是它由于使用预先计算的映射来学习正交旋转导致了它不是最优的。

SDH的提出:直接优化二进制哈希码的监督哈希框架

  • 为了利用有监督的标签信息,作者根据线性分类来构建哈希框架,其中学习的二进制码被期望是最适合分类的。更具体地说,学习的二进制码可以看作是原始数据的非线性生成的特征向量。利用标签信息,使这些二值特征向量易于分类。类似于高阶离散增强学习,我们将原始数据非线性地转换为一个二进制空间,然后在该空间中对原始数据进行分类。

  • 为了实现这一思想,作者提出了一个联合优化过程,该过程联合学习二进制嵌入和线性分类器。在这个公式中,一组哈希函数同时被优化以适应学习到的二进制位。为了更好地捕获底层输入数据的非线性结构,这些哈希函数是在内核空间中学习的。然后整个联合优化的过程以迭代的方式执行(和三个相关子问题)

  • 为了解决最关键的子问题——二进制码优化,在监督哈希框架中提出了一个离散循环坐标下降(DCC)算法来逐位生成哈希码。通过为线性分类器仔细选择损失函数,DCC算法以封闭形式产生最优散列位,这使得整个优化过程非常高效,可以自然地扩展到大量的数据集。这种使用了DCC的监督哈希方法称为监督离散哈希SDH。

  • 作者提出了一种新的监督哈希方法,基于好的哈希码对于线性分类是最优的假设。关键技术是不带松弛直接求解相应的离散优化问题。首先,通过引入一个辅助变量,我们重新构建优化目标,使其可以使用正则化方案有效地求解。其次,SDH方法的关键步骤是求解NP-hard二元优化子问题。SDH通过离散循环坐标下降DCC,在每一步求解相关的二进制优化并得到解析解,从而使整个优化非常有效。没有松弛地直接优化离散位对获得高质量哈希码起着关键作用。

SDH的具体分析

目标函数:
在这里插入图片描述
L2 loss形式:
在这里插入图片描述

Hinge loss形式:
在这里插入图片描述

测评

  • 数据集:
    CIFAR-102,
    M-NIST3
    NUS-WIDE
    ImageNet

  • 特征:
    所有的数据样本都被归一化为单位长度
    对比算法:
    监督哈希:BRE , MLH, SSH, CCA-ITQ , KSH, FastHash
    无监督哈希:PCA-ITQ , AGH, IMH with t-SNE

  • 评测指标:
    计算效率和检索性能
    CIFAR和M-NIST:哈希查找Precision(汉明半径的精度)、汉明排名MAP(平均精度的平均值)

  • 实验内容:
    1.首先比较了L2 loss和hinge loss,发现在precision和MAP上二者一致,所以在后续实验中都用L2 loss
    2.比较了针对目标公式,使用离散约束和不使用离散约束的Precision 和MAP,带离散约束的明显好
    3.不同数量锚点在检索性能的比较,发现锚点越多检索性能越好,锚点越多计算成本越高
    4.在CIFAR数据集应用不同算法,SDH的precision和MAP高于同状态的其它算法,且训练费时更少
    5.在MNIST数据集(手写数字)上SDH有更高的precision和recall
    6.在NUS-WIDE数据集(多标签)上当哈希吗长度大于32时SDH取得最高的precision,MAP一直都是SDH最高
    7.在imagenet数据集(高维特征)上SDH的precision取得了最高
    8.在CIFAR数据集上SDH取得了最高的分类精度


http://chatgpt.dhexx.cn/article/9fEw2Sfo.shtml

相关文章

NetVLAD: CNN architecture for weakly supervised place recognition

背景知识: Vector of Locally Aggregated Descriptors(VLAD)image retrieval. 【CC】是广泛使用的图像提取方式,本文是在在这个提取器上做改进;具体是啥下面有介绍 weakly supervised ranking loss 【CC】本文的另外…

Self-Supervised Difference Detection for Weakly-Supervised Semantic Segmentation

Self-Supervised Difference Detection for Weakly-Supervised Semantic Segmentation 摘要1. Introduction2. Related Works3. Method3.1. Difference detection network3.2. Self-supervised difference detection module 论文地址 这篇论文原文的定义实在是太混乱了&#xf…

Unified Deep Supervised Domain Adaptation and Generalization

论文概述 问题研究背景:supervised domain adaptation(SDA),源域有大量带标签的数据,目标域仅有少量可使用的数据 问题的难点:目标域数据不足导致概率分布在语义上很难对齐和区分。对齐指的是源域图片类别之间的关系与目标域图片…

Self-supervised Video Transformer 阅读

目录 1.介绍2.SVT2.1 SVT结构2.2 自监督训练Motion CorrespondencesCross-View Correspondences 2.3 SVT loss 1.介绍 本文是针对video transformer进行自监督训练,从一个给定的视频中,创建具有不同空间大小和帧率的局部和全局时空视图,自监…

最简单的self-supervised方法

从Kaiming的MoCo和Hinton组Chen Ting的SimCLR开始,自监督学习(SSL)成了计算机视觉的热潮显学。凡是大佬大组(Kaiming, VGG,MMLAB等),近两年都是搞了几个自监督方法的。从一开始的新奇兴奋地看着…

弱监督学习 weakly supervised learning 笔记

周志华 A Brief Introduction to Weakly Supervised Learning 2018 引言 在机器学习领域,学习任务可以划分为监督学习、非监督学习。通常,两者都需要从包含大量训练样本的训练数据集中学习预测模型。 监督学习的训练数据包括,数据对象向量…

Supervised Contrastive Learning浅读

目录 前言 1.方法介绍以及结构 2.思路的实现 2.1自监督对比学习 2.2有监督对比学习 3.结果 前言 本文是根据观看了知名油管up主,对Supervised Contrastive Learning这篇文论文的解读写了一点自己的理解,初次接触,理解甚浅。 在文章中…

supervised——>self-supervised

在CV中,以数据与神经网络为基础,我们通常以supervised的方式与unsupervised的方式来进行网络的训练,这些行为的目的都是为了想要使学到的网络能够具有较好的特征表示能力,以进行如分类、目标检测、语义分割等。这两种方式的主要异…

自监督模型 Self-supervised learning(李宏毅2022

这个红色的怪物叫做ELMo 、最早的self-supervised learning model 作业四的模型也是个transformer,只有0.1个million 最早的是ELMo Cookie Monster等你来凑😼 T5是Google做的,跟车子也没什么关系, 在没有label情况下&#xff…

《论文笔记》—— Self-supervised Image-specific Prototype Exploration for Weakly Supervised Semantic Segment

摘要:基于图像级标签的弱监督语义分割(WSSS)由于标注成本低而备受关注。现有的方法通常依赖于类激活映射(CAM)来度量图像像素和分类器权重之间的相关性。然而,分类器只关注识别区域,而忽略每张图像中的其他有用信息,导致定位图不完…

Semi-supervised Learning(半监督学习)

目录 Introduction Why semi-supervised learning help? Semi-supervised Learning for Generative Model Supervised Generative Model Semi-supervised Generative Model Low-density Separation Assumption Self Training Entropy-based Regularization(基…

supervised contrastive learning 解读

SupCon 定义: Clusters of points belonging to the same class are pulled together in embedding space, while simultaneously pushing apart clusters of samples from different classes. novelties: 属于同一类的归一化后的特征表示靠得越近越好…

第十章 Supervised PCA

supervised pca很简单粗暴,计算 X X X的每一个纬度和 Y Y Y的相关性,取一个阈值,丢掉一些纬度,然后用普通的pca降维。 如何计算两个随机变量的相关性/相似性? 两个随机变量 X , Y X,Y X,Y,有一个函数 ϕ \p…

学习笔记|BERT——自监督学习的典范

1. 自监督学习的概念 在机器学习中,最常见的是监督学习(Supervised learning)。假设模型的输入是 x x x,输出是 y y y,我们如何使模型输出我们期望的 y y y呢?我们得拥有已标注的(label&#x…

supervised使用教程

安装 平台要求 引自官网(supervised.org/introductio…):Supervisor已经过测试,可以在Linux(Ubuntu 9.10),Mac OS X(10.4 / 10.5 / 10.6)和Solaris(对于Int…

如何使用镜像网站?

1. 使用清华大学镜像网站下载镜像 官网:清华大学镜像站 例如centOS: 1)查找centOS 2)找到对应的版本号 3)找到镜像地址 4)找到自己要下载的版本 DVD:标准版 mini:迷你版 everyt…

如何快速镜像一个网站

仅需下述几个步骤即可快速镜像一个网站,镜像的内容包括html,js,css,image等静态页面资源,暂时无法镜像有用户交互的动态页面。 1、安装wget工具,以ubuntu系统为例 sudo apt-get install wget 2、下载网站…

【数学与算法】泰勒公式_线性化_雅各比矩阵_黑塞矩阵

本文的所涉及的知识点,如果有相关知识盲区,请参考: 微分方程通杀篇 如何区分线性系统与非线性系统 本文是观看B站视频【工程数学基础】2_线性化_泰勒级数_泰勒公式所作的笔记。 其中, k k k 是第k个点, n n n是指每个点…

机器学习中的数学基础 Day1

O(n) o(n) order&#xff1a;阶&#xff0c;多次式阶&#xff0c;x^2x1 阶2 f(x)O(g(x))&#xff1a;存在x0、M&#xff0c;使得x>x0时&#xff0c;f(x)<Mg(x) 2x^2 O(x^2),M2,x0任意 x^2x1 O(x^2),M2,x010 f(x)o(g(x)):对于任意的ε&#xff0c;存在x0&#xff0…

Hessian矩阵正定与函数凹凸性的关系

1. 从矩阵变换的角度 首先半正定矩阵定义为: 其中X 是向量&#xff0c;M 是变换矩阵 我们换一个思路看这个问题&#xff0c;矩阵变换中&#xff0c;代表对向量 X进行变换&#xff0c;我们假设变换后的向量为Y&#xff0c;记做 于是半正定矩阵可以写成&#xff1a; 这个是不是很…