多语言大型语言模型利用强大的大型语言模型处理和响应多种语言的查询,这在多语言自然语言处理任务中取得了显著的成功。尽管取得了这些突破,但在这一领域仍缺乏一个全面的综述来总结现有方法和最近的发展。为此,在本文中,我们提出了一个彻底的审查,并提供了一个统一的视角来总结多语言大型语言模型(MLLMs)文献中的最新进展和新兴趋势。本文的贡献可以总结如下:(1)第一份综述:据我们所知,我们采取了第一步,在多语言对齐的基础上对MLLMs研究领域进行了彻底的审查;(2)新分类法:我们提出了一个新的统一视角来总结MLLMs的当前进展;(3)新前沿:我们突出了几个新兴的前沿并讨论了相应的挑战;(4)丰富资源:我们收集了大量的开源资源,包括相关论文、数据语料库和排行榜。我们希望我们的工作能为社区提供快速访问并推动MLLMs的突破性研究。

近年来,大型语言模型(LLMs)在各种自然语言处理任务上取得了优异的表现(Brown et al., 2020; Touvron et al., 2023a; Bang et al., 2023; Zhao et al., 2023b; Pan et al., 2023; Nguyen et al., 2023a; Trivedi et al., 2023),并展示出了令人惊讶的突发能力,包括上下文学习(Min et al., 2022; Dong et al., 2022)、思维链推理(Wei et al., 2022; Huang et al., 2023a; Qin et al., 2023a)以及规划(Driess et al., 2023; Hu et al., 2023b)。然而,大多数LLMs主要关注英语任务(Held et al., 2023; Zhang et al., 2023i),使其在多语言环境,尤其是低资源环境下表现不足。

实际上,全球有超过7000种语言。随着全球化的加速,大型语言模型的成功应考虑服务于不同国家和语言。为此,多语言大型语言模型(MLLMs)具有全面处理多种语言的优势,越来越受到关注。具体来说,现有的MLLMs可以根据不同阶段大致分为两组。第一系列工作(Xue et al., 2020; Workshop et al., 2022; Zhang et al., 2023g; Muennighoff et al., 2022)利用多语言数据调整参数以提升整体多语言性能。第二系列工作(Shi et al., 2022a; Qin et al., 2023b; Huang et al., 2023a)还采用先进的提示策略,在参数冻结推理阶段挖掘MLLMs的更深层次多语言潜力。

尽管在MLLMs上取得了显著成功,但仍缺乏对最近努力的全面回顾和分析,这阻碍了MLLMs的发展。为了弥补这一差距,我们首次尝试对MLLMs进行全面而详尽的分析。具体来说,我们首先介绍广泛使用的数据资源(§3)。此外,由于跨语言对齐的关键挑战,我们根据对齐策略引入了新的分类法(§4),旨在提供文献中的统一视角,包括参数调整对齐和参数冻结对齐(如图1所示)。具体来说,参数调整对齐需要在预训练、监督微调、人类反馈学习和下游微调过程中调整模型参数以增强英语和目标语言之间的对齐。参数冻结对齐指的是通过跨语言提示实现的对齐,无需调整参数。最后,我们指出了一些潜在的前沿领域以及MLLMs面临的相应挑战,希望激发后续研究(§5)。

本工作的贡献可以总结如下:(1)首次综述:据我们所知,我们是第一个根据多语言对齐在MLLMs文献中提出全面综述的;(2)新分类法:我们引入了将MLLMs分类为参数冻结和参数调整两种对齐类型的新分类法,为理解MLLMs文献提供了统一视角;(3)新前沿:我们讨论了一些新兴的前沿,并突出了它们的挑战和机遇,希望为未来研究的发展铺路;(4)详尽资源:我们首次尝试组织MLLMs资源,包括开源软件、多样的语料库和相关出版物的精选列表,可在https://multilingual-llm.net访问。 我们希望这项工作能成为研究者的宝贵资源,并激发未来研究的更多突破。

如图4所示,我们引入了一种新的分类法,包括参数调整对齐(§4.1)和参数冻结对齐(§4.2),旨在为研究人员提供一个统一的视角,以理解MLLMs文献。具体来说,参数调整对齐(PTA)包括一系列逐步进阶的训练和对齐策略,包括预训练对齐、监督微调(SFT)对齐、人类反馈学习(RLHF)对齐,以及最终的下游微调对齐。这些阶段的共同目标是系统地优化模型参数,以对齐多语言性能。相反,参数冻结对齐(PFA)侧重于基于PTA的四种提示策略:直接提示、代码切换提示、翻译对齐提示和检索增强对齐。这种方法保持原始模型参数,以实现预期结果。

成为VIP会员查看完整内容
36

相关内容

大语言模型是基于海量文本数据训练的深度学习模型。它不仅能够生成自然语言文本,还能够深入理解文本含义,处理各种自然语言任务,如文本摘要、问答、翻译等。2023年,大语言模型及其在人工智能领域的应用已成为全球科技研究的热点,其在规模上的增长尤为引人注目,参数量已从最初的十几亿跃升到如今的一万亿。参数量的提升使得模型能够更加精细地捕捉人类语言微妙之处,更加深入地理解人类语言的复杂性。在过去的一年里,大语言模型在吸纳新知识、分解复杂任务以及图文对齐等多方面都有显著提升。随着技术的不断成熟,它将不断拓展其应用范围,为人类提供更加智能化和个性化的服务,进一步改善人们的生活和生产方式。
大型语言模型的模型压缩与高效推理:综述
专知会员服务
61+阅读 · 2月17日
《大型语言模型自然语言生成评估》综述
专知会员服务
57+阅读 · 1月20日
《大型语言模型归因》综述
专知会员服务
65+阅读 · 2023年11月8日
面向自然语言处理的知识图谱嵌入:从理论到实践
专知会员服务
47+阅读 · 2022年10月16日
基于大型预训练语言模型的自然语言处理研究进展综述
专知会员服务
90+阅读 · 2021年11月4日
专知会员服务
59+阅读 · 2021年5月28日
专知会员服务
112+阅读 · 2020年12月9日
基于模型的强化学习综述
专知
17+阅读 · 2022年7月13日
多模态多任务学习新论文
专知
46+阅读 · 2019年2月9日
深度学习超参数搜索实用指南
云栖社区
28+阅读 · 2018年10月14日
深度学习文本分类方法综述(代码)
专知
11+阅读 · 2018年6月15日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
Arxiv
131+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
325+阅读 · 2023年3月31日
Arxiv
53+阅读 · 2023年3月26日
Arxiv
111+阅读 · 2023年3月24日
Arxiv
15+阅读 · 2023年3月17日
VIP会员
相关VIP内容
大型语言模型的模型压缩与高效推理:综述
专知会员服务
61+阅读 · 2月17日
《大型语言模型自然语言生成评估》综述
专知会员服务
57+阅读 · 1月20日
《大型语言模型归因》综述
专知会员服务
65+阅读 · 2023年11月8日
面向自然语言处理的知识图谱嵌入:从理论到实践
专知会员服务
47+阅读 · 2022年10月16日
基于大型预训练语言模型的自然语言处理研究进展综述
专知会员服务
90+阅读 · 2021年11月4日
专知会员服务
59+阅读 · 2021年5月28日
专知会员服务
112+阅读 · 2020年12月9日
相关资讯
基于模型的强化学习综述
专知
17+阅读 · 2022年7月13日
多模态多任务学习新论文
专知
46+阅读 · 2019年2月9日
深度学习超参数搜索实用指南
云栖社区
28+阅读 · 2018年10月14日
深度学习文本分类方法综述(代码)
专知
11+阅读 · 2018年6月15日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
相关基金
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员