时间序列分类在金融、医疗和传感器数据分析等多个领域都是一个关键任务。无监督的对比学习在从标签有限的时间序列数据中学习有效表示方面引起了广泛关注。现有的对比学习方法中普遍的方法包括两个独立的阶段:在无标签数据集上预训练编码器,然后在小规模有标签数据集上对经过良好训练的模型进行微调。然而,这种两阶段方法存在几个缺点,例如:无监督预训练对比损失不能直接影响下游的微调分类器,以及缺乏利用由有价值的真实标签指导的分类损失。在本文中,我们提出了一个名为SLOTS(半监督时间分类学习)的端到端模型。SLOTS接收半标签数据集,其中包含大量的无标签样本和少量的有标签样本,并通过编码器将它们映射到一个嵌入空间。我们不仅计算无监督的对比损失,而且在具有真实标签的样本上测量有监督的对比损失。学到的嵌入被送入一个分类器,并使用可用的真实标签计算分类损失。无监督、有监督对比损失和分类损失被联合用来优化编码器和分类器。我们通过与五个数据集上的十种最先进方法进行比较来评估SLOTS。结果表明,与两阶段框架相比,我们的端到端SLOTS使用相同的输入数据,消耗类似的计算成本,但提供了明显优化的性能。我们在 https://anonymous.4open.science/r/SLOTS-242E 发布了代码和数据集。

成为VIP会员查看完整内容
29

相关内容

【ICCV2023】保留模态结构改进多模态学习
专知会员服务
27+阅读 · 2023年8月28日
【CVPR2023】基于文本驱动软掩码的多模态表示学习
专知会员服务
20+阅读 · 2023年4月10日
【NAACL2022】自然语言处理的对比数据与学习
专知会员服务
45+阅读 · 2022年7月10日
专知会员服务
33+阅读 · 2021年9月18日
专知会员服务
14+阅读 · 2021年7月21日
专知会员服务
35+阅读 · 2021年6月19日
专知会员服务
29+阅读 · 2020年9月18日
【ACM MM2020】跨模态分布匹配的半监督多模态情感识别
专知会员服务
42+阅读 · 2020年9月8日
【CVPR2021】跨模态检索的概率嵌入
专知
16+阅读 · 2021年3月2日
【CVPR 2020 Oral】小样本类增量学习
专知
16+阅读 · 2020年6月26日
国家自然科学基金
13+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
Arxiv
131+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
326+阅读 · 2023年3月31日
Arxiv
53+阅读 · 2023年3月26日
Arxiv
67+阅读 · 2022年9月7日
VIP会员
相关VIP内容
【ICCV2023】保留模态结构改进多模态学习
专知会员服务
27+阅读 · 2023年8月28日
【CVPR2023】基于文本驱动软掩码的多模态表示学习
专知会员服务
20+阅读 · 2023年4月10日
【NAACL2022】自然语言处理的对比数据与学习
专知会员服务
45+阅读 · 2022年7月10日
专知会员服务
33+阅读 · 2021年9月18日
专知会员服务
14+阅读 · 2021年7月21日
专知会员服务
35+阅读 · 2021年6月19日
专知会员服务
29+阅读 · 2020年9月18日
【ACM MM2020】跨模态分布匹配的半监督多模态情感识别
专知会员服务
42+阅读 · 2020年9月8日
相关基金
国家自然科学基金
13+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员