《BDD100K: A Diverse Driving Dataset for Heterogeneous Multitask Learning》论文阅读笔记

article/2025/8/21 22:38:54

BDD100K任务示例图

论文链接

A Diverse Driving Dataset for Heterogeneous Multitask Learning

Abstract

介绍了BDD100K数据集,包含100K段视频以及10种类型的任务,针对这种多元化任务需要特殊的训练策略。

1 Introduction

ImageNet、COCO等数据集在之前很长一段时间里推动了计算机视觉的发展,针对自动驾驶,作者团队提出了BDD100K数据集,包含image tagging, lane detection, drivable area segmentation, road object detection, semantic segmentation, instance segmentation, multi-object detection tracking, multi-object segmentation tracking, domain adaptation, and imitation learning十项任务,并且提供了相应的评估方法。挑战来源于通过一种单一模型支持多种任务。

2 Related Work

一般的Visual datasets往往是general-purpose的,作者推出的数据集提供了像素级别的标注,并且提供了视觉信息以外的维度。
由于自动驾驶技术的发展,Driving datasets在近些年得到了广泛关注。MOT等数据集关注行人目标,Cityscapes提供了语义分割信息,RobotCar、KITTI还提供了雷达点云信息,Mapillary Vistas提供了fine-grained annotations。
Multitask Learning旨在通过从其他任务学习提高通用性。随着对任务间关系的研究不断深入,多任务学习、迁移学习(transfer learning)相关的benchmarks以及challenges不断涌现,通过单一模型完成多种任务。

3 BDD100K

3.1 Image Tagging

给图像打标签,例如天气、场景、早晚等,提供了DLA-34分类的结果。

3.2 Object Detection

提供了bbox信息以及可见度信息。

3.3 Lane Marking

相关的数据集很少并且种类较为单一,BDD100K的车道标记包含road curb, crosswalk, double hite, double yellow, double other color, single white, single yellow, single other color八种类型。

3.4 Drivable Area

实际情况下并不一定存在车道线,并且车不是所有情况都在线内开。BDD100K的可行驶区域分为directly和alternatively两类,前者为当前行驶的区域,后者为可以变道的区域。

3.5 Semantic Instance Segmentation

数据集的划分为train:val:test=7K:1K:2K。

3.6 Multiple Object Tracking

2000段视频,约400K帧,每段视频约40s,按照5 FPS速度标注,train:val:test=1400:200:200。Waymo数据集视频段数更少,但是拥有更多的2D标注框。
MOT部分数据

3.7 Multiple Object Tracking and Segmentation(MOTS)

在这里插入图片描述

3.8 Imitation Learning

人类的操作得到的视觉或驾驶轨迹信息可用于机器的模仿学习。

4 Diversity

BDD100K的数据很丰富。

5 Multitask Learning

5.1 Homogeneous Multitask Learning

举个例子,lane marking与drivable area具有相同的数据子集,可将drivable area看作分割,lane marking看作轮廓检测,并且通过mean IoU评估分割,Optimal Dataset Scale F-measure (ODS-F)评估车道线标记。我们假设这两项任务具有同样的预测结构,但这样可能导致无法从每个单独任务中获取新信息。

5.2 Cascaded Multitask Learning

比如将目标检测与实例分割、多目标跟踪与目标检测、语义分割与其他任务级联起来,能得到更好的效果。
Cascaded Multitask Learning

5.3 Heterogeneous Multitask Learning

异构多任务学习,作者举了一个例子,在InstSeg的预训练模型上进行fine-tune以实现MOTS模型,结果segmentation AP和MOTSP均有提升;而在MOT的预训练模型上进行fine-tune,其中IDSW明显降低;最后将四个任务综合起来,得到的结果均有一定的提升。
在这里插入图片描述

6 Conclusion

推出了BDD100K数据集,建立了基准,多任务学习,希望能促进未来异质多任务学习的发展。


http://chatgpt.dhexx.cn/article/aDNKHMRQ.shtml

相关文章

multitask-graph-attention(一)

多任务图注意力框架预测药物毒性,原文:Mining Toxicity Information from Large Amounts of Toxicity Data,代码:MGA,文章从 MGA/interpretation/Ames_interpret.ipynb 开始 文章目录 1.build_dataset1.1.load_graph_…

12.UniT:Multimodal Multitask Learning with a Unified Transformer

1.动机 UniT,它通过统一transformer联合学习跨不同领域的多个任务。我们的UniT模型可以同时处理8个数据集上的7个任务,从对象检测到视觉和语言推理以及自然语言理解,同时通过紧凑的模型参数集实现每个任务的强大性能。 我们提出了一个统一的t…

Flow Prediction in Spatio-Temporal Networks Based on Multitask Deep Learning(TKDE2020)

Flow Prediction in Spatio-Temporal Networks Based on Multitask Deep Learning(TKDE2020) 摘要:预测交通流(如车辆、人群和自行车的交通),包括在一个节点的进出交通和不同节点之间的过渡,在交通运输系统的时空网络…

GPT2.0语言模型 Language Models are Unsupervised Multitask Learners

论文链接:https://d4mucfpksywv.cloudfront.net/better-language-models/language-models.pdf Tensorflow代码链接:https://github.com/openai/gpt-2 Pytorch代码链接:https://github.com/huggingface/pytorch-pretrained-BERT 参考文档&…

论文阅读《Language Models are Unsupervised Multitask Learners》

论文地址:《Language Models are Unsupervised Multitask Learners》 代码地址:https://github.com/openai/gpt-2 文章目录 论文介绍模型框架实验分析结论 论文介绍 本文将常识推理和情感分析两项任务联系起来,采取更一般的方法。证明了语言…

MulT: An End-to-End Multitask Learning Transformer 多任务共享注意力

文章 同时学习多个高级视觉任务,包括深度估计、语义分割、reshading表面法线估计、2D 关键点检测和边缘检测。 与单个任务Transformer相比,跨任务联合培训的Transformer模型能否提高每个任务的性能?在基于Transformer的框架中,可…

Paper | Multitask learning

目录 1. MTL的定义2. MTL的机制 2.1. Representation Bias2.2. Uncorrelated Tasks May Help?3. MTL的用途 3.1. Using the Future to Predict the Present3.2. Time Series Prediction3.3. Using Extra Tasks to Focus Attention3.4. Quantization Smoothing3.5. S…

GPT2(Language Models are Unsupervised Multitask Learners)论文阅读

1. 论文阅读 论文地址:Language Models are Unsupervised Multitask Learners 1.1 背景介绍 2019年OpenAI发布的模型,OpenAI在2018年的GPT1中给出了一种半监督的训练方法,在GPT2中针对如下问题做了升级: 以前机器学习训练代价大…

#Paper Reading# Language Models are Unsupervised Multitask Learners

论文题目: Language Models are Unsupervised Multitask Learners 论文地址: https://life-extension.github.io/2020/05/27/GPT技术初探/language-models.pdf 论文发表于: OpenAI 2019 论文所属单位: OpenAI 论文大体内容: 本文主要提出了GPT-2(Gener…

【论文阅读】Multitask Prompted Training Enables Zero-shot Task Generalization

前言 本文源自 ICLR 2022 原文地址:Multitask Prompted Training Enables Zero-shot Task Generalization Discussion 中提到的 FLAN 参考博文 【论文阅读】Finetuned Language Models Are Zero-Shot Learners_长命百岁️的博客-CSDN博客 Abstract 大模型在多种…

MultiTask Learning Survey

目录 一、常见Multi-Task 架构 二、MTL的一些优化方法 三、ExperimentConclusion 原文链接:MultiTask Survey 一、常见Multi-Task 架构 Hard和Soft区分:Hard共享底层参数,在高层提取中相互独立;Soft使用十字绣的形式&#xf…

Multitask Learning

参考 Multitask Learning - 云社区 - 腾讯云 1、单任务学习VS多任务学习 单任务学习:一次只学习一个任务(task),大部分的机器学习任务都属于单任务学习。多任务学习:把多个相关(related)的任务…

Multi-Task 多任务学习, 那些你不知道的事

作者 | 三和厂妹 来源 | 文末『阅读原文』处 概念 当在一个任务中要优化多于一个的目标函数[1] ,就可以叫多任务学习 一些例外 「一个目标函数的多任务」:很多任务中把loss加到一起回传,实质优化的是一个目标函数, 但优化的是多个任务&…

多任务学习综述:推荐系统多任务学习(multitask)的实战总结和常见问题(一)

多任务学习算法系列的主要内容是回顾和总结自己2019-2021间在深度学习多任务学习算法(multitask)的工业实践和遇到的常见问题,欢迎更多同学讨论和指正,同时也宣传一波我们组在推荐方向的工作成果——大规模推荐算法库PaddleRec(https://githu…

VS2012下载和安装

1.下载链接 https://pan.baidu.com/s/1YR7Xk9Zlv7zQWCsERdVgIQ 提取码:stvi 2.鼠标右击【Visual Studio2012】压缩包选择【解压到Visual Studio2012】。 3.打开解压后的文件夹,鼠标右击【vs_ultimate】选择【以管理员身份运行】。 4.点击【…】可更改安…

Visual Studio 2013 详细安装教程(安装+注册)

转载自:安装注册:https://jingyan.baidu.com/article/09ea3ede3b2496c0afde3944.html IE10报错解决办法:https://jingyan.baidu.com/article/ff42efa92f79cac19e2202cd.html 1.还是老样子,首先要下载安装文件,这里提供…

使用cubemx工具的STM32对外部flash(W25Q64)的简单编程

SPI SPI简介 SPI通信原理 SPI是串行外设接口(Serial Peripheral Interface)的缩写,是一种高速的,全双工,同步的通信总线,并且在芯片的管脚上只占用四根线,节约了芯片的管脚,同时为…

stm32 W25QXX系列驱动 W25Q80 W25Q16 W25Q32 W25Q64 W25Q128 W25Q256

头文件 #ifndef W25QXX__H #define W25QXX__H #include "sys.h"#define W25Q80 0XEF13 #define W25Q16 0XEF14 #define W25Q32 0XEF15 #define W25Q64 0XEF16 #define W25Q128 0XEF17 #define W25Q256 0XEF18#define W25QXX_CS PAout(4)//指令表 #define W25X…

SPI专题(二)——STM32驱动FLASH(W25Q64)

前言: 为了方便查看博客,特意申请了一个公众号,附上二维码,有兴趣的朋友可以关注,和我一起讨论学习,一起享受技术,一起成长。 github:my github 注:博客所涉及的关于 st…

STM32系列(HAL库)——F103C8T6通过SPI方式读写W25Q64—(Flash存储模块)

1.软件准备 (1)编程平台:Keil5 (2)CubeMX (3)XCOM(串口调试助手) 2.硬件准备 (1)W25Q64模块 (2)F1的板子,本例使用经典F103C8T6 (3)ST-link 下载器 (4)USB-TTL模块 (5)杜邦线若干 3.模块资料 (1)模块简介: W25Q64(64M-bit)&#xff0c…