【论文导读】Time-Series Representation Learning via Temporal and Contextual Contrasting(时间和上下文对比的时间序列表示学习)

article/2025/9/19 20:58:40

Time-Series Representation Learning via Temporal and Contextual Contrasting(通过时间和上下文对比的时间序列表示学习)

  • 论文信息
  • 摘要
  • 主要贡献
  • 论文结构
    • 1. Introduction
    • 2. Related Works
    • 3. Methods
      • Architecture of proposed ==TS-TCC== model
    • 4. Experimental Setup
    • 5. Results
    • 6. Conclusions
  • 时间序列表示学习框架(TS-TCC)方法
    • 数据增强(Data Augmentation)
    • 时间对比模块(Temporal Contrasting)
    • 上下文对比模块(Contextual Contrasting)

论文信息

在这里插入图片描述

论文地址: https://arxiv.org/pdf/2106.14112.pdf
源码地址:https://github.com/emadeldeen24/TS-TCC

摘要

Learning decent representations from unlabeledtime-series data with temporal dynamics is avery challenging task. In this paper, we pro-pose an unsupervised Time-Series representationlearning framework via Temporal and ContextualContrasting (TS-TCC), to learn time-series repre-sentation from unlabeled data. First, the raw time-series data are transformed into two different yetcorrelated views by using weak and strong augmen-tations. Second, we propose a novel temporal con-trasting module to learn robust temporal represen-tations by designing a tough cross-view predictiontask. Last, to further learn discriminative represen-tations, we propose a contextual contrasting mod-ule built upon the contexts from the temporal con-trasting module. It attempts to maximize the sim-ilarity among different contexts of the same sam-ple while minimizing similarity among contexts ofdifferent samples. Experiments have been carriedout on three real-world time-series datasets. The re-sults manifest that training a linear classifier on topof the features learned by our proposed TS-TCCperforms comparably with the supervised training.Additionally, our proposed TS-TCC shows highefficiency in few-labeled data and transfer learn-ing scenarios.

从具有时间动态性的未标记时间序列数据中学习合理的表示是一项非常具有挑战性的任务。本文提出一种无监督的时间序列表示学习框架( TS-TCC ),用于从未标注数据中学习时间序列表示。首先,利用弱和强两种增强方式,将原始时间序列数据转化为两种不同但相关的视图。其次,我们提出了一种新的时间对比模块,通过设计一个艰巨的跨视图预测任务来学习鲁棒的时间表示。最后,为了进一步学习区分性表示,我们从时间对比模块出发,提出了基于上下文的上下文对比模块。它试图最大化同一样本的不同上下文之间的相似性,同时最小化不同样本上下文之间的相似性。在三个真实时间序列数据集上进行了实验。实验结果表明,在TS - TCC模型学习的特征基础上训练线性分类器,与有监督训练相比具有更好的性能。此外,我们提出的TS-TCC在少标记数据和迁移学习场景中表现出很高的效率。

主要贡献

  1. 针对无监督时间序列表示学习,提出一种新的对比学习框架;
  2. 在对比学习框架中,针对时间序列数据设计了简单而高效的增强;
  3. 通过设计一个跨视图预测任务,提出一种新的时间对比模块来从时间序列数据中学习具有鲁棒性的表示。此外,提出一个上下文对比模块来进一步学习基于鲁邦表示的区分性表示;
  4. 利用三个公开的数据集对提出的通过时间和上下文对比的时间序列表示学习(TS-TCC)框架进行实验,表明在有监督学习、半监督学习和迁移学习环境下,所学习的表征对下游任务是有效的。

论文结构

1. Introduction

首先介绍对时间序列数据进行标记的困难性,然后分别介绍自监督学习和对比学习的应用,最后介绍提出的时间序列表示学习框架(TS-TCC)。

2. Related Works

  1. 介绍自监督学习的研究现状;
  2. 介绍自监督学习在时间序列数据上的流行趋势;

3. Methods

详细介绍了提出的时间序列表示学习框架(TS-TCC),主要包括三个模块:

  • Time-Series Data Augmentation(时间序列数据增强)
  • Temporal Contrasting(时间对比模块)
  • Contextual Contrasting(上下文对比模块)

Architecture of proposed TS-TCC model

在这里插入图片描述

4. Experimental Setup

  1. 介绍实验数据集
    Human Activity Recognition (HAR)【人类活动识别数据集】、Sleep Stage Classification【睡眠阶段分类数据集】、Epilepsy Seizure Prediction【癫痫发作预测数据集】、Fault Diagnosis (FD)【故障诊断数据集】
    在这里插入图片描述2. 介绍实验细节
    在这里插入图片描述

5. Results

介绍实验结果与分析。

为了显示提出的TS-TCC的有效性,在线性评价、半监督训练和转移学习三种不同的训练设置上进行了测试。为了更好地评价不平衡数据集,采用精度和宏观平均F1 - score ( MF1 )两个指标来评价性能。

6. Conclusions

总结。

时间序列表示学习框架(TS-TCC)方法

在这里插入图片描述

数据增强(Data Augmentation)

包括两方面的工作:数据增强编码。具体如下:

  1. 数据增强
    首先基于强增强(Strong Augmentation)和弱增强(Weak Augmentation)生成两种不同但相关的输入数据视图,然后将这些视图传递给编码器以提取它们的高维潜在表示。
  • 弱增强(Strong Augmentation)
    一种jitter-and-scale(抖动和缩放)策略,即将随机变化添加到信号中,并放大其幅度。
  • 强增强(Weak Augmentation)
    一种permutation-and-jitter(排列和抖动)策略,即先将信号分成随机数目的段并打乱次序,再将随机抖动添加到置换信号中。
  1. 编码
    将增强后的两种视图通过Encoder(编码器),以提取它们的高维潜在表示。

时间对比模块(Temporal Contrasting)

使用一个视图的过去来预测另一个视图的未来,从而执行跨视图预测任务。

将编码后的视图(zw、zs)经过一个Transformer结构得到一个结果(cw、cs)。其中zs表示强增强编码结果和zw表示弱增强编码结果。
在这里插入图片描述

使用的Transformer结构如下:
在这里插入图片描述
然后,使用cw预测zs,cs预测zw,损失设计为:利用时间对比损失最小化同一样本的预测表示和真实表示之间的点积,同时最大化与批量内其他样本点积。
在这里插入图片描述

上下文对比模块(Contextual Contrasting)

给定一批N个输入样本,我们将从其两个增强视图中为每个样本设置两个上下文,从而拥有2N个上下文。

定义同一输入的两个增强视图为一个正对,与同批内其他输入为负对。

通过上下文对比损失来最大化正对之间的相似度,最小化负对之间的相似度。损失函数如下:
在这里插入图片描述
从而,架构总体损失为:
在这里插入图片描述


http://chatgpt.dhexx.cn/article/UsUE2rTD.shtml

相关文章

表示学习(Representation Learning)之局部表示(Local Representation)与分布式表示(Distributed Representation)

一个良好的表示是内容充分高效表达的基础,作为沟通计算机与现实世界的桥梁,计算机行业人员每时每刻都在研究事物的表示。比如:编程语言,早期的机器语言和现在的高级程序语言可以看作是指令的两种不同表示方式,从可读性…

深度学习是表示学习的经典代表(浅谈什么是深度学习)

目录 先来看机器学习: 什么是特征? 深度学习是表示学习的经典代表: 深度学习的过程: 深度学习与传统机器学习差别: 深度学习代表算法: 先来看机器学习: 机器学习是利用经验experience来改…

深度学习中的表示学习_Representation Learning

一、深度学习网络的表达方式汇总及模型分类方法 人的大脑会对眼睛捕捉到的外界事物进行逐级抽象,逐渐提取出抽象的语义信息,以便为人脑所理解。深度学习从这一科学发现得到启发,通过网络的权值来捕捉外界输入模式的特征,并且通过…

基于GNN的图表示学习及其应用

文章内容概述 本文内容分两部分,第一部分为基于 GNN 的图表示学习,共包含两节,第1节主要从三种建模方法上对图表示学习进行对比阐述;第2节分别从两类无监督学习目标——重构损失与对比损失,对基于 GNN 的无监督表示学习…

知识表示学习(KG Embedding)—— TransX系列

文章目录 前言TransETransHTransRTransD总结参考资料 前言 知识表示学习是针对于知识图谱三元组所做的word embedding,平常所做的都是基于完整的文本表述比如一句话去产生word2vec这种副产物,但是KG中的embedding是更为直接的构建实体与关系之间的语义联…

网络表示学习总结

我的GitHub博客:咖啡成瘾患者 网络的邻接矩阵表示网络的分布式表示网络表示学习的经典工作 DeepwalkLINEnode2vec 网络表示学习的相关论文 最近看了paperweekly的两次关于网络表示学习的直播,涂存超博士与杨成博士讲解了网络表示学习的相关知识。本文将网…

Deep Multimodal Representation Learning(深度多模态表示学习)

多模态表示学习旨在缩小不同模态之间的异质性差距,在利用普遍存在的多模态数据中发挥着不可或缺的作用。基于深度学习的多模态表示学习由于具有强大的多层次抽象表示能力,近年来引起了人们的广泛关注。 多模态融合的核心问题是异质性间隙,而为…

干货!Labeling Trick: 一个图神经网络多节点表示学习理论

点击蓝字 关注我们 AI TIME欢迎每一位AI爱好者的加入! GNN 旨在学习单节点表示。当我们想要学习一个涉及多个节点的节点集表示(如链路表示)时,以往工作中的一个常见做法是将 GNN 学习到的多个单节点表示直接聚合成节点集的联合表示…

知识图谱表示学习

知识图谱是一种精细化的异构网络, 所以对其节点与边的表示学习也是一个热门的问题. 这里的学习依旧是得到它们的低维稠密向量. 这样做的好处: 降低知识图谱的高维性和异构性;增强知识图谱应用的灵活性;减轻特征工程的工作量;减少由于引入知识…

深度聚类:将深度表示学习和聚类联合优化

参考文献: 简介 经典聚类即数据通过各种表示学习技术以矢量化形式表示为特征。随着数据变得越来越复杂和复杂,浅层(传统)聚类方法已经无法处理高维数据类型。结合深度学习优势的一种直接方法是首先学习深度表示,然后再…

什么是表示学习(representation learning)表征学习 表达学习

机器学习算法的成功与否不仅仅取决于算法本身,也取决于数据的表示。数据的不同表示可能会导致有效信息的隐藏或是曝露,这也决定了算法是不是能直截了当地解决问题。表征学习的目的是对复杂的原始数据化繁为简,把原始数据的无效信息剔除&#…

知识表示学习模型

最近清华的THUNLP整理了Pre-trained Languge Model (PLM)相关的工作:PLMpapers,非常全面,想要了解最新NLP发展的同学不要错过。本来这篇是打算写一写Knowledge Graph BERT系列工作的,但是最近有在做知识图谱的一些东西所以就先整…

网络表示学习(network represention learning)

https://www.toutiao.com/a6679280803920216589/ 2019-04-13 15:40:48 1.传统:基于图的表示(又称为基于符号的表示) 如左图G (V,E),用不同的符号命名不同的节点,用二维数组&#x…

图表示学习

文章目录 1.导言1.1 为什么要研究图(graph)1.2 针对图结构的机器学习任务1.3 特征表示的难点1.4 特征表示的解决思路1.5 线性化思路1.6 图神经网络1.7 讨论:何谓Embedding1.8 总结 2.图结构表示学习2.1 deepwalk(深度游走算法)2.2 node2vec 3…

表示学习(特征学习)

文章目录 表示学习特征工程与表示学习深度学习的表示学习注:深度学习不等于多层神经网络什么时候用「手工提取」什么时候用「表示学习」? 关于特征表示学习的算法 参考资料 表示学习 表示学习的基本思路,是找到对于原始数据更好的表达&#…

表示学习与深度学习

1、表示学习 首先给出表示学习的定义: 为了提高机器学习系统的准确率,我们就需要将输入信息转换为有效的特征,或者更一般性称为表示(Representation)。如果有一种算法可以自动地学习出有效的特征,并提高最…

表示学习(Representation Learning)

一、前言 2013年,Bengio等人发表了关于表示学习的综述。最近拜读了一下,要读懂这篇论文还有很多文献需要阅读。组会上正好报了这篇,所以在此做一个总结。 鉴于大家都想要我的汇报PPT,那我就分享给大家,希望能对大家有所…

使用 Altium Designer 绘制PCB完整设计流程记录(2021.05.04更新)

前言 做了大半年的毕业设计,陆陆续续也是画了几个板子,有些东西感觉要趁现在记录下来,方便以后某天还想再画板子时查看。 修改日志 时间修改内容2021.05.04初稿完成 文章目录 前言修改日志一、关于AD版本二、原理图库和封装库三、绘制原理…

PCB设计流程步骤中的注意事项

PCB中文名称为印制电路板,又称印刷线路板,几乎所有电子设备中都会应用到PCB。这种由贵金属制成的绿色电路板连接了设备的所有电气组件,并使其能够正常运行。PCB原理图是一个计划,是一个蓝图。它说明的并不是组件将专门放置在何处&…

使用Cadence绘制PCB流程(个人小结)

之前使用过cadence画过几块板子,一直没有做过整理。每次画图遇到问题时,都查阅操作方法。现在整理一下cadence使用经历,将遇到问题写出来,避免重复犯错。 注:写该篇文章时,感谢于争博士的教学视频和《Cade…