非引导方法深度补全系列——1—— 《Sparsity invariant cnns》文章细读

article/2025/10/25 4:32:04

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档

目录

创新点

论文概述

方法详解

网络结构:

杂七杂八

总结

参考


创新点

1.提出了一种稀疏卷积层,在卷积过程中使用二进制有效性掩码来指示缺失的元素。

2.大规模数据集


论文概述

1.深度补全

       本篇论文之后,深度补全这个概念更加明显,之前的深度补全的问题和图像处理的任务相似,像图像超分辨方法,处理的问题类似将低分辨率的深度图优化到高分辨率

2.稀疏卷积

       引入一个新的稀疏卷积层,在卷积过程中使用二进制有效性掩码来指示缺失的元素,此方法直接对输入操作,考虑了丢失数据的位置,根据像素有效性对卷积核进行加权,另外,第二个将关于像素的有效性的信息传递给网络后续层,使我们的方法能够处理大量稀疏度而不会显着降低准确性。

3.大规模数据集

       基于KITTI原始数据集创建了一个新的大规模数据集,该数据集由93k帧组成,具有半稠密的deep ground truth。结果表明,我们提出的累积和清理管道能够消除原始激光雷达扫描中的异常值,同时显著增加数据密度。减少了动态物体导致雷达扫描出现的显著误差。

4.对于数据稀疏性水平是不变的

      意思是在输入数据是任何训练和测试稀疏度的情况下,性能上不会有较大差异,不像baseline在更稀疏和更密集的输入都有很大的误差

方法详解

标准卷积层:

       f表示输入到输出的映射,本文是输出的深度图像素到对应深度信息的映射。核大小为2k+1,权重为w,偏差为b。如果输入包含多个特征,则xu、v和wi,j表示向量,其长度取决于输入通道的数量

稀疏卷积:

       本文提出的方法,稀疏卷积计算,评估观察到的像素并归一化(直接对输入操作),设o={ou,v}表示相应的二进制变量,观察到有效值值为1,未观察到值为0,分母添加一个常数,避免分母为0,分子为添加了二进制掩码的原深度图,输入稀疏深度图是单通道,则掩码作为第二个通道添加到输入中。

       由于本文方法直接对输入操作,不会像其他(例如通过插值增加输入采样)方法引入额外干扰项。

最大池化:

       如果至少有一个观察到的变量对过滤器可见,则该值为1,否则为0。结合卷积的输出,这将作为下一个稀疏卷积层的输入

网络结构:

 

         我们网络的输入是一个稀疏深度图(黄色)和一个二进制观察掩码(红色)。它通过几个稀疏卷积层(虚线),内核大小从11×11减小到3×3。

      训练了具有五个卷积层的全卷积网络(FCN)的三种不同变体,这些卷积层的内核大小分别为11、7、5、3和3。每个卷积有一个16个输出通道的步长,然后是一个ReLU作为非线性激活函数。

杂七杂八

       给定一个稀疏深度图,非引导方法的目标是用一个深度神经网络模型直接完成它

       非引导方法通常不如RGB引导方法,存在模糊效应和目标边界失真。RGB图像提供了丰富的语义线索,这对于填充不规则形状的对象的缺失值至关重要

      稀疏卷积使用二进制有效性掩码来区分有效值和缺失值,并只在有效数据之间进行卷积。有效性掩码的值由其局部邻居通过最大池化来确定。这是第一个基于深度学习的方法优于非学习方法,并显示了深度学习在任务上的潜力。此外,它还激发了许多后续的研究。

       当网络的输入是稀疏和不规则的(例如,当只有10%的像素携带信息时),对于每个滤波器位置应如何定义卷积运算变得不太清楚,输入的数量和位置会发生变化。

        Naıve方法有一个问题,对于未观察到的输入,一可以给他赋值编码,例如0,但这样问题是网络需要能分辨观察到的输入和无效的输入;二网络学习观察掩码和输入之间的关系。这两种变体鲁棒性不强。


总结

        下面有我写博客的参考,估计不全找不到了,原作要是有幸看到的话劳烦告知

参考

(5条消息) 论文笔记_S2D.14-2014-NIPS_利用多尺度深度网络从单张图像预测深度图_惊鸿一博的博客-CSDN博客(5条消息) Normalization_gwpscut的博客-CSDN博客_normalization


http://chatgpt.dhexx.cn/article/F3GdHeTa.shtml

相关文章

模型剪枝三:Learning Structured Sparsity in Deep Neural Networks

论文:https://arxiv.org/abs/1608.03665 代码:https://github.com/wenwei202/caffe/tree/scnn 1 核心思想 前面两篇文章https://blog.csdn.net/cdknight_happy/article/details/110953977和https://blog.csdn.net/cdknight_happy/article/details/1110…

Exploring Sparsity in Image Super-Resolution for Efficient Inference

目录 原文翻译 Abstract 1. Introduction 2. Related Work 4. Our SMSR Network 4.1. Sparse Mask Generation 4.2. Sparse Mask Convolution 5. Experiments 5.1. Implementation Details 5.2. Model Analysis 5.3. Comparison with State-of-the-art Methods Conclusion …

稀疏大模型简述:从MoE、Sparse Attention到GLaM

文 | 唐工源 | 知乎 Sparsity, ..., is another important algorithmic advance that can greatly improve efficiency. 稀疏性,是(神经架构搜索)之外另一个重要的算法进步,可以大大提高效率。 The use of sparsity in models is…

Sparse Learning

Sparse Learning 本文的内容主要来自余凯老师在CVPR2012上给的Tutorial。前面在总结ScSPM和LLC的时候,引用了很多Tutorial上的图片。其实这个Tutorial感觉写的挺好的,所以这次把它大致用自己的语言描述一下。不过稀疏编码是前两年比较火的东西&#xff0…

理解sparse coding

稀疏编码系列: (一)----Spatial Pyramid 小结(二)----图像的稀疏表示——ScSPM和LLC的总结(三)----理解sparse coding(四)----稀疏模型与结构性稀疏模型 -------------…

干货!SparCL,将Sparsity用在连续学习任务,相同表现下训练效率提升23倍!

点击蓝字 关注我们 AI TIME欢迎每一位AI爱好者的加入! 作者简介 王梓枫 美国东北大学博士生,主要研究方向持续学习(Continual Learning)。 个人主页:https://kingspencer.github.io/ 报告题目 SparCL: 边缘设备上的稀疏…

MORE CONVNETS IN THE 2020S: SCALING UP KER- NELS BEYOND 51 × 51 USING SPARSITY

论文链接: https://arxiv.org/pdf/2207.03620.pdf code: https://github.com/VITA-Group/SLaKlink MORE CONVNETS IN THE 2020S: SCALING UP KER- NELS BEYOND 51 51 USING SPARSITY 一、引言(二)、大内核注意力(二)、卷积中的大…

Self-supervised Learning for Label Sparsity in Computational Drug Repositioning

论文地址:Self-supervised Learning for Label Sparsity in Computational Drug Repositioning 1. Introduction 药物重定位旨在根据已知的药物-疾病关联性揭示上市药物的新用途。其背后的逻辑是:目前市场上的小分子药物具有多靶点特性,这意…

xgboost:分割Sparsity-aware Split Finding

Sparsity-aware Split Finding1 在许多现实问题中,输入 x x x是稀疏的是很常见的。造成稀疏性的可能原因有很多: 1)数据中存在缺失值; 2)统计中频繁出现零项; 3)特征工程的处理结果,如独热编码。 重要的是使算法意识到数据中…

Sparsity constraint稀疏约束详解

Sparsity constraint稀疏约束详解 引子: 线性模型是我们经常使用的一种模型,比如: 文本分类中,bag-of-words 有p 20 K 个特征, 共有 N 5K 个文本样例; 在图像去模糊化,图像分类中,…

[机器学习速成课程] 稀疏性正则化 (Regularization for Sparsity)-学习笔记

稀疏性和 L1 正则化 学习目标: 计算模型大小通过应用 L1 正则化来增加稀疏性,以减小模型大小 降低复杂性的一种方法是使用正则化函数,它会使权重正好为零。对于线性模型(例如线性回归),权重为零就相当于完…

机器学习14:稀疏性-Sparsity

现实世界中,问题的特征的数量往往是很大的,而其中起决定性作用的往往是很小的一部分,稀疏规则化算子的引入会学习去掉这些没有信息的特征,也就是把这些特征对应的权重置为 0。 1.稀疏性正则化:L₁ 正则化 稀疏向量通常…

稀疏(sparsity)矩阵的行压缩存储

压缩矩阵行或列来存储矩阵的格式是很普遍的,它们不会存储不必要的元素(即空值)。但是它们也不是非常有效的,当在一个矩阵-向量积或预解决的每个简单标量中需要间接寻址。行压缩存储方式会把一个稀疏矩阵行的非零数值放在连续的存储…

redis删除锁

redis删除锁 参考:百度安全验证 前言 在分布式系统中,由于redis分布式锁相对于更简单和高效,成为了分布式锁的首先,被我们用到了很多实际业务场景当中。 但不是说用了redis分布式锁,就可以高枕无忧了,如…

Redis进阶: 锁的使用

Redis进阶: 锁的使用 1. 概念1. 原子性2. 事务 2. 使用Redis构建全局并发锁3. Redlock(redis分布式锁)总结 相关Blog 1. 概念 1. 原子性 原子性 原子性是数据库的事务中的特性。在数据库事务的情景下,原子性指的是:一个事务&…

redis锁的几种实现

1. redis加锁分类 redis能用的的加锁命令分表是INCR、SETNX、SET 2. 第一种锁命令INCR 这种加锁的思路是, key 不存在,那么 key 的值会先被初始化为 0 ,然后再执行 INCR 操作进行加一。 然后其它用户在执行 INCR 操作进行加一时&#xff0…

java redis锁_Java中Redis锁的实现

由于具体业务场景的需求,需要保证数据在分布式环境下的正确更新,所以研究了一下Java中分布式锁的实现。 Java分布式锁的实现方式主要有以下三种: 数据库实现的乐观锁 Redis实现的分布式锁 Zookeeper实现的分布式锁 其中,较常用的是前两种方式,但是数据库实现方式需要较多的…

Redis的分布式锁详解

一、什么是分布式锁: 1、什么是分布式锁: 分布式锁,即分布式系统中的锁。在单体应用中我们通过锁解决的是控制共享资源访问的问题,而分布式锁,就是解决了分布式系统中控制共享资源访问的问题。与单体应用不同的是&…

redis锁

一、redis锁的实现 加锁命令: SETNX key value: 当键不存在时,对键进行设置操作并返回成功1,否则返回失败0。 Key是锁的唯一标识,一般按业务来决定命名; Value 往往用来比较加锁的是哪一个线程或者哪一个…

超图 hypergraph 二分图 Bipartite graph

超图是什么 超图超图的意义应用 二分图 超图 超图是什么? 超图的本质特征在于它的超边,它可以连接两个以上的结点(包括两个)。按这样的意义来说,我们所熟悉的普通图只是超图的一个特例而已,而超图则定义了一个更加宽泛的图。 超图…