文档人工智能(Document AI,简称 DAI)已成为一个至关重要的应用领域,而大语言模型(Large Language Models,简称 LLMs)的兴起正在深刻地重塑这一领域。早期方法主要依赖于编码器–解码器(encoder-decoder)架构,而如今仅使用解码器的 LLM 模型在文档智能中引发了革命性变革,显著推动了文档理解与生成能力的提升。 本文对 DAI 的发展历程进行了全面梳理,重点总结了当前研究进展以及 LLM 在该领域的未来前景。我们系统探讨了多模态(multimodal)、多语言(multilingual)以及检索增强(retrieval-augmented)等方向中的关键突破与挑战,同时提出了若干未来研究方向,包括基于智能体(agent-based)的方法和面向文档的专用基础模型(document-specific foundation models)。 本文旨在对 DAI 的最新研究现状及其在学术与实际应用中的潜在影响进行结构化分析,为后续研究提供系统参考。

1 引言

文档作为信息传递的重要载体,呈现出多样的格式形式,在科研与工业领域均扮演着关键角色(Stage and Manning, 2003)。文档人工智能(Document AI,简称 DAI) 综合利用自然语言处理(NLP)与计算机视觉(CV)技术,以实现文档相关任务的自动化,主要可分为两大类:文档理解(understanding)(Pfitzmann et al., 2022; Mathew et al., 2021)与文档生成(generation)(Wiseman et al., 2017; Zhang et al., 2018)。然而,传统的基于规则方法(rule-based)(Bourgeois et al., 1992)与基于学习方法(learning-based)(Marinai et al., 2005)通常成本高昂且耗时费力,这促使研究者转向语言模型,以期获得更高效、可扩展的解决方案。 在众多模型中,仅编码器(encoder-only)模型(Hong et al., 2022; Huang et al., 2022; Luo et al., 2023)常用于捕捉细粒度、文档特定的信息;而编码器–解码器(encoder-decoder)架构在处理具有可变长度和多模态输入输出的生成任务上表现突出(Tanaka et al., 2021; Tang et al., 2023),但其性能仍受限于训练数据的质量与规模。 近年来,仅解码器(decoder-only)大语言模型(LLMs) 的突破推动了面向文档任务的 LLM 研究。这些模型基于多样化的多模态数据进行训练,涵盖图像分割(Hu et al., 2024a)、版面布局(Wang et al., 2024a; Luo et al., 2024)以及几何信息(Lamott et al., 2024)等任务,在文档理解与生成方面均展现出显著性能提升。 尽管取得了显著进展,LLMs 在准确解释文档内容方面仍存在挑战(Liu et al., 2024a)。许多模型仍依赖光学字符识别(OCR)引擎,或忽略文档中丰富的文本语义信息,从而阻碍了跨多种文档模态学习统一表示的能力。此外,多语言性与语言多样性(Joshi et al., 2020)仍是普遍难题:数据稀缺及高质量训练语料不足限制了多语言 LLM 的表现。虽然已有研究探索了跨语言泛化(cross-lingual generalization)在等价翻译任务中的有效性(Zhang et al., 2023),但 DAI 往往需要更复杂的上下文信息,如文档结构与语言特定知识(Zhao et al., 2024c; Xing et al., 2024),这进一步限制了 LLM 在多语言文档处理中的性能。 LLMs 在 DAI 领域的发展与应用,已成为当前的核心研究方向。实现多语言与多模态能力是模型应对多样化真实场景的关键(Xu et al., 2024b; Zhu et al., 2024b)。近期的研究致力于融合多语言性与多模态性,以增强统一文档表示学习(unified document representation learning),从而提升 LLM 的通用性与鲁棒性(Hu et al., 2024a)。 鉴于基于 LLM 的 DAI 的快速发展,亟需对其在文档处理方面的能力进行系统性梳理。为此,本文综述了当前最先进(SoTA)的多语言与多模态 LLM 的最新进展,重点分析了它们在 DAI 中的表现、所面临的挑战及未来发展方向。 在这篇深入的综述中,我们系统地将基于 LLM 的 DAI 相关研究划分为五大核心任务。本文的主要贡献包括: * (1) 在第 2 节中,详细介绍了文档智能的定义与发展历程,并概述了相关的评测基准(benchmarks); * (2) 在第 3 节中,全面回顾了 LLM 多模态能力的集成进展,重点分析其在多样化 DAI 应用中的效果; * (3) 在第 4 节与第 5 节中,系统分析了多语言能力与检索增强(retrieval-augmented)范式的最新发展,探讨它们在提升**上下文感知文档智能(context-aware document intelligence)**中的作用; * (4) 最后,总结了构建高可靠性文档专用基础模型(document-specific foundation models)所面临的关键技术挑战,并提出了面向未来的可行研究方向,为 DAI 的持续发展提供参考。

成为VIP会员查看完整内容
2

相关内容

大语言模型是基于海量文本数据训练的深度学习模型。它不仅能够生成自然语言文本,还能够深入理解文本含义,处理各种自然语言任务,如文本摘要、问答、翻译等。2023年,大语言模型及其在人工智能领域的应用已成为全球科技研究的热点,其在规模上的增长尤为引人注目,参数量已从最初的十几亿跃升到如今的一万亿。参数量的提升使得模型能够更加精细地捕捉人类语言微妙之处,更加深入地理解人类语言的复杂性。在过去的一年里,大语言模型在吸纳新知识、分解复杂任务以及图文对齐等多方面都有显著提升。随着技术的不断成熟,它将不断拓展其应用范围,为人类提供更加智能化和个性化的服务,进一步改善人们的生活和生产方式。
可解释人工智能中的大语言模型:全面综述
专知会员服务
51+阅读 · 4月2日
基础语言模型在持续学习中的最新进展:综述
专知会员服务
35+阅读 · 2024年6月9日
《大型语言模型代码生成》综述
专知会员服务
68+阅读 · 2024年6月4日
《大型语言模型持续学习》综述
专知会员服务
92+阅读 · 2024年4月26日
《大型语言模型中基于检索的文本生成》综述
专知会员服务
57+阅读 · 2024年4月18日
大型语言模型中的数字遗忘:遗忘方法的综述
专知会员服务
33+阅读 · 2024年4月8日
大型语言模型的高效提示方法综述
专知会员服务
74+阅读 · 2024年4月2日
大模型时代的自动图表理解综述
专知会员服务
70+阅读 · 2024年3月19日
基于大型语言模型的多智能体:进展与挑战综述
专知会员服务
133+阅读 · 2024年2月6日
数据受限条件下的多模态处理技术综述
专知
21+阅读 · 2022年7月16日
综述| 当图神经网络遇上强化学习
图与推荐
34+阅读 · 2022年7月1日
深度学习图像检索(CBIR): 十年之大综述
专知
66+阅读 · 2020年12月5日
高效的文本生成方法 — LaserTagger 现已开源
TensorFlow
30+阅读 · 2020年2月27日
基于Tacotron模型的语音合成实践
深度学习每日摘要
15+阅读 · 2018年12月25日
深度学习与计算机视觉任务应用综述
深度学习与NLP
50+阅读 · 2018年12月18日
深度学习时代的目标检测算法
炼数成金订阅号
40+阅读 · 2018年3月19日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
A Survey of Large Language Models
Arxiv
484+阅读 · 2023年3月31日
Arxiv
25+阅读 · 2023年3月17日
VIP会员
相关VIP内容
可解释人工智能中的大语言模型:全面综述
专知会员服务
51+阅读 · 4月2日
基础语言模型在持续学习中的最新进展:综述
专知会员服务
35+阅读 · 2024年6月9日
《大型语言模型代码生成》综述
专知会员服务
68+阅读 · 2024年6月4日
《大型语言模型持续学习》综述
专知会员服务
92+阅读 · 2024年4月26日
《大型语言模型中基于检索的文本生成》综述
专知会员服务
57+阅读 · 2024年4月18日
大型语言模型中的数字遗忘:遗忘方法的综述
专知会员服务
33+阅读 · 2024年4月8日
大型语言模型的高效提示方法综述
专知会员服务
74+阅读 · 2024年4月2日
大模型时代的自动图表理解综述
专知会员服务
70+阅读 · 2024年3月19日
基于大型语言模型的多智能体:进展与挑战综述
专知会员服务
133+阅读 · 2024年2月6日
相关资讯
数据受限条件下的多模态处理技术综述
专知
21+阅读 · 2022年7月16日
综述| 当图神经网络遇上强化学习
图与推荐
34+阅读 · 2022年7月1日
深度学习图像检索(CBIR): 十年之大综述
专知
66+阅读 · 2020年12月5日
高效的文本生成方法 — LaserTagger 现已开源
TensorFlow
30+阅读 · 2020年2月27日
基于Tacotron模型的语音合成实践
深度学习每日摘要
15+阅读 · 2018年12月25日
深度学习与计算机视觉任务应用综述
深度学习与NLP
50+阅读 · 2018年12月18日
深度学习时代的目标检测算法
炼数成金订阅号
40+阅读 · 2018年3月19日
相关基金
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
微信扫码咨询专知VIP会员