Our paper challenges claims from prior research that transformer-based models, when learning in context, implicitly implement standard learning algorithms. We present empirical evidence inconsistent with this view and provide a mathematical analysis demonstrating that transformers cannot achieve general predictive accuracy due to inherent architectural limitations.


翻译:本文对先前研究中关于基于Transformer的模型在上下文学习时隐式实现标准学习算法的论断提出质疑。我们提供了与该观点不一致的实验证据,并通过数学分析证明,由于固有的架构限制,Transformer模型无法实现通用的预测准确性。

0
下载
关闭预览

相关内容

【ICML2022】分支强化学习
专知会员服务
44+阅读 · 2022年7月22日
知识增强预训练语言模型:全面综述
专知会员服务
96+阅读 · 2021年10月19日
【NeurIPS2020】可处理的反事实推理的深度结构因果模型
专知会员服务
49+阅读 · 2020年9月28日
基于模型的强化学习综述
专知
42+阅读 · 2022年7月13日
用Attention玩转CV,一文总览自注意力语义分割进展
R语言时间序列分析
R语言中文社区
12+阅读 · 2018年11月19日
自然语言处理(二)机器翻译 篇 (NLP: machine translation)
DeepLearning中文论坛
12+阅读 · 2015年7月1日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
VIP会员
相关资讯
基于模型的强化学习综述
专知
42+阅读 · 2022年7月13日
用Attention玩转CV,一文总览自注意力语义分割进展
R语言时间序列分析
R语言中文社区
12+阅读 · 2018年11月19日
自然语言处理(二)机器翻译 篇 (NLP: machine translation)
DeepLearning中文论坛
12+阅读 · 2015年7月1日
相关基金
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员