The remarkable performance of Large Language Models (LLMs) can be enhanced with test-time computation, which relies on external tools and even other deep learning models. However, existing approaches for integrating non-text modality representations into LLMs typically require additional costly supervised training, restricting on-the-fly adaptation to new domains and modalities. In this work, we explore the feasibility of integrating representations from non-text foundational models (FMs) into text-based LLMs in a training-free manner. We propose In-Context Representation Learning (ICRL) as a proof-of-concept to allow LLMs to adaptively utilize non-text modality representations with few-shot learning. Unlike traditional in-context learning, which incorporates text-label pairs, ICRL replaces text inputs with FM representations, enabling the LLM to perform multi-modal inference without fine-tuning. We evaluate ICRL on a suite of tasks in the molecular domain, investigating three core research questions: (i) how to map FM representations into LLMs in a training-free manner, (ii) what factors influence ICRL performance, and (iii) what mechanisms underlie the effectiveness of ICRL. To the best of our knowledge, ICRL is the first training-free framework for integrating non-text modality representations into text-based LLMs, presenting a promising direction for adaptable, multi-modal generalization.


翻译:大型语言模型(LLMs)的卓越性能可以通过测试时计算得到增强,这依赖于外部工具甚至其他深度学习模型。然而,现有将非文本模态表示整合到LLMs中的方法通常需要额外的高成本监督训练,限制了在新领域和模态上的即时适应能力。在本研究中,我们探索了以无需训练的方式将来自非文本基础模型(FMs)的表示整合到基于文本的LLMs中的可行性。我们提出了上下文表示学习(ICRL)作为概念验证,使LLMs能够通过少样本学习自适应地利用非文本模态表示。与传统的上下文学习(包含文本-标签对)不同,ICRL将文本输入替换为FM表示,使LLM无需微调即可执行多模态推理。我们在分子领域的一系列任务上评估ICRL,研究了三个核心研究问题:(i)如何以无需训练的方式将FM表示映射到LLMs中,(ii)哪些因素影响ICRL的性能,以及(iii)ICRL有效性的潜在机制是什么。据我们所知,ICRL是首个将非文本模态表示整合到基于文本的LLMs中的无需训练框架,为可适应的多模态泛化提供了一个有前景的方向。

0
下载
关闭预览

相关内容

大型语言模型推理增强外部知识:综述
专知会员服务
35+阅读 · 6月2日
RAG与RAU:自然语言处理中的检索增强语言模型综述
专知会员服务
87+阅读 · 2024年5月3日
基于大型预训练语言模型的自然语言处理研究进展综述
专知会员服务
96+阅读 · 2021年11月4日
【NAACL2021】信息解缠正则化持续学习的文本分类
专知会员服务
22+阅读 · 2021年4月11日
专知会员服务
36+阅读 · 2020年11月29日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 12月15日
VIP会员
相关VIP内容
大型语言模型推理增强外部知识:综述
专知会员服务
35+阅读 · 6月2日
RAG与RAU:自然语言处理中的检索增强语言模型综述
专知会员服务
87+阅读 · 2024年5月3日
基于大型预训练语言模型的自然语言处理研究进展综述
专知会员服务
96+阅读 · 2021年11月4日
【NAACL2021】信息解缠正则化持续学习的文本分类
专知会员服务
22+阅读 · 2021年4月11日
专知会员服务
36+阅读 · 2020年11月29日
相关基金
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员