通过将时间序列编码为一串数字字符,我们可以将时间序列预测视为文本中的下一个标记预测。发展这种方法,我们发现大型语言模型 (LLMs) 如 GPT-3 和 LLaMA-2 可以令人惊讶地零次推断时间序列,其水平与或超过专门为下游任务训练的时间序列模型的性能。为了促进这种性能,我们提出了有效标记化时间序列数据的程序,并将标记上的离散分布转化为连续值上的高度灵活密度。我们认为LLMs在时间序列中的成功来源于它们能够自然地表示多模态分布,与简单性、重复性的偏见相结合,这与许多时间序列中的突出特征,如重复的季节性趋势,是一致的。我们还展示了LLMs如何能够通过非数字文本自然处理缺失数据而不需要估计,适应文本的边际信息,并回答问题以帮助解释预测。虽然我们发现增加模型大小通常会提高时间序列的性能,但我们显示GPT-4在如何标记数字和较差的不确定性校准方面可能比GPT-3表现得更差,这可能是对齐干预如RLHF的结果。

成为VIP会员查看完整内容
45

相关内容

【NeurIPS2023】大型语言模型是视觉推理协调器
专知会员服务
26+阅读 · 2023年10月24日
【NeurIPS2023】将持续学习重新定义为序列建模
专知会员服务
31+阅读 · 2023年10月19日
【NeurIPS2023】半监督端到端对比学习用于时间序列分类
专知会员服务
29+阅读 · 2023年10月17日
专知会员服务
21+阅读 · 2021年10月8日
专知会员服务
35+阅读 · 2021年6月19日
专知会员服务
35+阅读 · 2021年6月3日
【SIGIR2021】基于嵌入的增量式时序知识图谱补全框架
专知会员服务
60+阅读 · 2021年4月21日
【WWW2021】归一化硬样本挖掘的双重注意匹配网络
专知会员服务
17+阅读 · 2021年3月31日
专知会员服务
34+阅读 · 2020年11月29日
【CVPR2021】跨模态检索的概率嵌入
专知
16+阅读 · 2021年3月2日
【KDD2020】图神经网络生成式预训练
专知
20+阅读 · 2020年7月3日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2023年11月24日
Arxiv
131+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
322+阅读 · 2023年3月31日
Arxiv
53+阅读 · 2023年3月26日
VIP会员
相关VIP内容
【NeurIPS2023】大型语言模型是视觉推理协调器
专知会员服务
26+阅读 · 2023年10月24日
【NeurIPS2023】将持续学习重新定义为序列建模
专知会员服务
31+阅读 · 2023年10月19日
【NeurIPS2023】半监督端到端对比学习用于时间序列分类
专知会员服务
29+阅读 · 2023年10月17日
专知会员服务
21+阅读 · 2021年10月8日
专知会员服务
35+阅读 · 2021年6月19日
专知会员服务
35+阅读 · 2021年6月3日
【SIGIR2021】基于嵌入的增量式时序知识图谱补全框架
专知会员服务
60+阅读 · 2021年4月21日
【WWW2021】归一化硬样本挖掘的双重注意匹配网络
专知会员服务
17+阅读 · 2021年3月31日
专知会员服务
34+阅读 · 2020年11月29日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
相关论文
微信扫码咨询专知VIP会员