大规模语言模型(LLM)实际学习和使用什么算法来解决问题?

关于这个问题的研究较少,因为目前的研究重点主要集中在通过扩大规模来提高性能,从而留下了在理解新兴算法方面的理论和经验空白。本文提出了AlgEval:一个用于系统性研究LLM学习和使用的算法框架。AlgEval旨在揭示反映在潜在表示、注意力机制和推理时计算中的算法原语,以及它们的算法组合,来解决特定任务问题。

我们强调了实现这一目标的潜在方法路径,并以一个关于新兴搜索算法的案例研究为重点。我们的案例研究展示了关于候选算法的自上而下假设的形成,以及通过对注意力模式和隐藏状态的电路级分析进行这些假设的自下而上的验证。对LLM如何实际解决任务的严格系统评估为资源密集型的扩展提供了替代方案,并将研究方向重新引导向对底层计算的原则性理解。这种算法解释为人类可理解的可解释性提供了一条路径,使得对模型内部推理过程和性能衡量的理解成为可能。反过来,这也可以导致更高效的样本训练方法,提高性能,并为端到端和多智能体系统提供新的架构。

成为VIP会员查看完整内容
1

相关内容

【斯坦福大学Xiang Lisa Li博士论文】控制语言模型
【ICML2025】大语言模型是自我示范预选择器
专知会员服务
12+阅读 · 6月9日
【NeurIPS2024】在复杂视觉推理场景中学习迭代和并行推理
专知会员服务
17+阅读 · 2024年11月30日
【NeurIPS2024】迈向统一的多模态编辑与增强的知识协作
专知会员服务
20+阅读 · 2024年10月1日
【ICML2024】深度强化学习中的随机潜在探索
专知会员服务
20+阅读 · 2024年7月19日
专知会员服务
25+阅读 · 2021年9月28日
专知会员服务
38+阅读 · 2021年9月15日
【干货书】可解释人工智能(xAI)方法和深度元学习模型
专知会员服务
61+阅读 · 2020年9月13日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
【论文笔记】基于LSTM的问答对排序
专知
12+阅读 · 2019年9月7日
【CVPR2019】弱监督图像分类建模
深度学习大讲堂
38+阅读 · 2019年7月25日
【深度学习基础】4. Recurrent Neural Networks
微信AI
16+阅读 · 2017年7月19日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
44+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
13+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Arxiv
170+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
472+阅读 · 2023年3月31日
Arxiv
78+阅读 · 2023年3月26日
Arxiv
171+阅读 · 2023年3月24日
Arxiv
24+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【斯坦福大学Xiang Lisa Li博士论文】控制语言模型
【ICML2025】大语言模型是自我示范预选择器
专知会员服务
12+阅读 · 6月9日
【NeurIPS2024】在复杂视觉推理场景中学习迭代和并行推理
专知会员服务
17+阅读 · 2024年11月30日
【NeurIPS2024】迈向统一的多模态编辑与增强的知识协作
专知会员服务
20+阅读 · 2024年10月1日
【ICML2024】深度强化学习中的随机潜在探索
专知会员服务
20+阅读 · 2024年7月19日
专知会员服务
25+阅读 · 2021年9月28日
专知会员服务
38+阅读 · 2021年9月15日
【干货书】可解释人工智能(xAI)方法和深度元学习模型
专知会员服务
61+阅读 · 2020年9月13日
相关基金
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
44+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
13+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员