NLP领域,你推荐哪些综述性的文章?
2023.05更新
thunlp整理的关于大模型的工具学习的综述,介绍了可利用的工具类型、如何令大模型学会使用工具以及未来工具学习可能面临的一些场景和问题
中科院软件所与msra合作的关于代码大模型的综述,介绍了一种代码领域的大模型、基准和评价指标,并给出了他们关于如何训练一个更好的代码大模型的一些发现:
2023.04更新
赵鑫老师前两天刚出炉的关于LLM的综述,覆盖了模型、数据集、训练、推理、评测等诸多方面,相当完备
LLM下的高效微调方法,涵盖了从2019年到2023年初几乎所有的Efficient Tuning方法,强烈安利
2023年更新..
目前研究社区都主要关注大规模语言型的工作了,来更新一下
大模型
对从BERT到ChatGPT这段时期大模型的梳理,涵盖了不同模态、训练方法和大模型引发的一系列相关问题
Pretraining
Yi Tay大佬的工作,对预训练中的不同模型结构、预训练目标进行了详尽的讨论和分析,并提供一套最佳实践,值得一读
上下文学习
对in-context learning中的样本选取,训练、推理等问题做了很全面的介绍,值得一读~
更新...
- 预训练模型
赵鑫老师组的同学近期整理的近三年的200+篇预训练相关的paper,涵盖模型压缩、推理加速、多模态、预训练应用等多个方向,非常全:
- 自然语言处理中的分析方法
- 常识推理
- 语言模型
这篇综述非常详尽地介绍了语言模型中的cache、聚类、n-gram、skipping models等技术的原理和发展,值得一读!
- 预训练语言模型
这是中科院一位师兄的博士论文,主要是讲word2vec及以前的主流预训练方法,全面而不失深度
这是复旦邱锡鹏老师组20年3月份新出的综述,对近两年新出的预训练模型进行了非常系统的分类和介绍,相当全面、时效性非常强
- 命名实体识别
南洋理工大学近期出的关于NER的综述,从数据集、评价指标、传统方法到深度方法均有详细的介绍
- 注意力机制
19年4月份出的attention综述,相当全面
- 文本匹配
来自COLING2018的综述,对Bert以前的基于表示和基于交互的深度匹配模型在诸多经典数据集上做了较为详细的实验和比较,值得一读
- 信息抽取
同样也是一篇博士论文,主要讨论如何使用基于神经的方法有效地从自然语言文本中提取语义关系。 此类研究工作旨在促进构建结构化的知识库,该知识库可用于一系列下游 NLP 应用程序,例如 Web 搜索,问题解答以及其他任务。
- 图神经网络
清华nlp组推荐的一些GNN必读论文
上述都是非常精彩的综述类文章,也正好符合初学者的学习顺序
后面看到了或者想起来有啥好的综述随时会放上来~