328页ppt! Allen等ACL2022《少样本自然语言处理》教程,阐述最新前沿技术

2022 年 5 月 26 日 专知

ACL 是计算语言学和自然语言处理领域的顶级国际会议,由国际计算语言学协会组织,每年举办一次。一直以来,ACL 在 NLP 领域的学术影响力都位列第一,它也是 CCF-A 类推荐会议。今年的 ACL 大会已是第 60 届,于 5 月 22-5 月 27 在爱尔兰都柏林举办。


ACL 2022论文奖项公布,伯克利摘得最佳论文,陈丹琦、杨笛一等华人团队获杰出论文


来自微软等最新ACL2022教程《知识增强自然语言处理》教程,值得关注!


有效地从很少到没有数据中学习的能力对于将NLP应用于数据收集成本高或其他困难的任务至关重要。这在学术和实践上都是一个具有挑战性的设置——特别是因为训练中模型通常需要大量标记数据。最近,对未标记数据进行预训练的进展,带来了更好的零样本或少样本学习的潜力(Devlin et al., 2019; Brown et al., 2020)。特别是在过去的一年里,人们进行了大量的研究,利用大规模语言模型更好地从有限的数据中学习。在本教程中,我们的目标是让感兴趣的NLP研究人员了解最新的和正在进行的使用预训练的语言模型进行零样本和少样本学习的技术。此外,我们的目标是向观众揭示新的研究机会,这将有望使我们更接近解决该领域现有的挑战。


https://github.com/allenai/acl2022-zerofewshot-tutorial


目录内容:


参考文献:

  • Language Models are Few-Shot Learners (Brown et al., 2020)

  • It’s Not Just Size That Matters: Small Language Models Are Also Few-Shot Learners (Schick and Schütze, 2021)

  • Multitask Prompted Training Enables Zero-Shot Task Generalization (Sanh et al., 2021)

  • FLEX: Unifying Evaluation for Few-Shot NLP (Bragg et al., 2021)


讲者:

专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“FSNLP” 就可以获取少样本NLP?Allen等ACL2022《少样本自然语言处理》教程,阐述最新前沿技术,附328页ppt》专知下载链接

专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取70000+AI(AI与军事、医药、公安等)主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取70000+AI主题知识资料
登录查看更多
2

相关内容

最新《域自适应视觉应用》ECCV2020教程,67页PPT
专知会员服务
26+阅读 · 2020年12月24日
【EMNLP2020】自然语言处理模型可解释性预测,182页ppt
专知会员服务
50+阅读 · 2020年11月19日
迁移学习简明教程,11页ppt
专知会员服务
105+阅读 · 2020年8月4日
自然语言处理(NLP)前沿进展报告(PPT下载)
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
32+阅读 · 2022年2月15日
Arxiv
15+阅读 · 2021年11月19日
Arxiv
23+阅读 · 2021年10月11日
Arxiv
20+阅读 · 2020年6月8日
Arxiv
13+阅读 · 2020年4月12日
Arxiv
21+阅读 · 2018年8月30日
Arxiv
19+阅读 · 2018年5月17日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
相关论文
Arxiv
32+阅读 · 2022年2月15日
Arxiv
15+阅读 · 2021年11月19日
Arxiv
23+阅读 · 2021年10月11日
Arxiv
20+阅读 · 2020年6月8日
Arxiv
13+阅读 · 2020年4月12日
Arxiv
21+阅读 · 2018年8月30日
Arxiv
19+阅读 · 2018年5月17日
Top
微信扫码咨询专知VIP会员