Language-specific neurons in LLMs that strongly correlate with individual languages have been shown to influence model behavior by deactivating them. However, their role in amplification remains underexplored. This work investigates the effect of amplifying language-specific neurons through interventions across 18 languages, including low-resource ones, using three models primarily trained in different languages. We compare amplification factors by their effectiveness in steering to the target language using a proposed Language Steering Shift (LSS) evaluation score, then evaluate it on downstream tasks: commonsense reasoning (XCOPA, XWinograd), knowledge (Include), and translation (FLORES). The optimal amplification factors effectively steer output toward nearly all tested languages. Intervention using this factor on downstream tasks improves self-language performance in some cases but generally degrades cross-language results. These findings highlight the effect of language-specific neurons in multilingual behavior, where amplification can be beneficial especially for low-resource languages, but provides limited advantage for cross-lingual transfer.


翻译:大型语言模型(LLMs)中与特定语言强相关的语言特异性神经元,通过去激活已被证明能影响模型行为。然而,它们在放大中的作用仍未得到充分探索。本研究通过在18种语言(包括低资源语言)上进行干预,使用三种主要在不同语言上训练的模型,探究了放大语言特异性神经元的效果。我们通过提出的语言转向偏移(LSS)评估分数,比较不同放大因子在引导至目标语言方面的有效性,随后在下游任务上进行评估:常识推理(XCOPA、XWinograd)、知识(Include)和翻译(FLORES)。最优放大因子能有效将输出引导至几乎所有测试语言。在下游任务中使用该因子进行干预,在某些情况下能提升自身语言性能,但通常会导致跨语言结果下降。这些发现凸显了语言特异性神经元在多语言行为中的作用,其中放大尤其对低资源语言有益,但对跨语言迁移的优势有限。

0
下载
关闭预览

相关内容

【ICML2024】揭示大脑中视觉-语言整合的多模态网络
专知会员服务
29+阅读 · 2024年6月21日
AAAI 2022 | ProtGNN:自解释图神经网络
专知会员服务
40+阅读 · 2022年2月28日
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
论文浅尝 | GEOM-GCN: Geometric Graph Convolutional Networks
开放知识图谱
14+阅读 · 2020年4月8日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员