大语言模型已被证明可以在广泛的下游任务中可预见地提高性能和样本效率。本文讨论的是一种不可预测的现象,我们称之为大型语言模型的涌现能力。我们认为,如果一种能力不存在于较小的模型中,而存在于较大的模型中,那么这种能力就是突现的。因此,不能简单地通过外推较小模型的性能来预测突发能力。这种涌现性的存在意味着额外的扩展性可以进一步扩展语言模型的功能范围。

成为VIP会员查看完整内容
86

相关内容

「知识增强预训练语言模型」最新研究综述
专知会员服务
62+阅读 · 2022年11月18日
基于大型预训练语言模型的自然语言处理研究进展综述
专知会员服务
96+阅读 · 2021年11月4日
知识增强预训练语言模型:全面综述
专知会员服务
96+阅读 · 2021年10月19日
【AAAI2021】预训练语言模型最新进展,附113页ppt和视频
专知会员服务
65+阅读 · 2021年2月23日
【GPT-3作者亲解】超大型语言模型少样本学习,109页ppt
专知会员服务
110+阅读 · 2020年12月19日
「知识增强预训练语言模型」最新研究综述
专知
18+阅读 · 2022年11月18日
谷歌&HuggingFace| 零样本能力最强的语言模型结构
夕小瑶的卖萌屋
0+阅读 · 2022年6月23日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
VIP会员
相关VIP内容
「知识增强预训练语言模型」最新研究综述
专知会员服务
62+阅读 · 2022年11月18日
基于大型预训练语言模型的自然语言处理研究进展综述
专知会员服务
96+阅读 · 2021年11月4日
知识增强预训练语言模型:全面综述
专知会员服务
96+阅读 · 2021年10月19日
【AAAI2021】预训练语言模型最新进展,附113页ppt和视频
专知会员服务
65+阅读 · 2021年2月23日
【GPT-3作者亲解】超大型语言模型少样本学习,109页ppt
专知会员服务
110+阅读 · 2020年12月19日
相关基金
微信扫码咨询专知VIP会员