大语言模型(LLM)正在改变世界,承诺自动化任务并解决复杂问题。新一代的软件应用程序正在将这些模型作为构建块,释放几乎每个领域的新潜力,但要可靠地访问这些能力,需要掌握新的技能。本书将教你提示工程的艺术与科学——解锁LLM真正潜力的关键。

行业专家 John BerrymanAlbert Ziegler 分享了如何与人工智能有效沟通,将你的想法转化为语言模型友好的格式。通过学习哲学基础和实践技巧,你将获得知识和信心,能够构建下一代基于LLM的应用程序。

  • 理解LLM架构并学习如何与其最佳互动
  • 设计应用程序的完整提示制作策略
  • 收集、整理并呈现上下文元素,以创建高效提示
  • 掌握特定的提示制作技巧,如少量样本学习(few-shot learning)、思维链提示(chain-of-thought prompting)和RAG(retrieval-augmented generation)

作者介绍

John Berryman 是 Arcturus Labs 的创始人兼首席顾问,专注于LLM应用程序开发。他的专业知识帮助企业利用先进的人工智能技术。作为 GitHub Copilot 的早期工程师,John 为其自动补全和聊天功能的发展做出了贡献,处于人工智能辅助编程工具的前沿。 在参与Copilot的工作之前,John在搜索引擎领域建立了令人印象深刻的职业生涯。他的多元化经验包括帮助开发美国专利局的下一代搜索系统,为 Eventbrite 构建搜索和推荐系统,并为 GitHub 的代码搜索基础设施做出贡献。John 还是《Relevant Search》(Manning)的共同作者,该书总结了他在搜索领域的专业知识。 John 在尖端人工智能应用和基础搜索技术方面的独特背景,使他处于LLM应用和信息检索创新的前沿。 Albert Ziegler 早在LLM应用成为主流之前,就开始设计以人工智能驱动的系统。作为 GitHub Copilot 的创始工程师,他设计了其提示工程系统,并帮助激发了一波 AI 驱动工具和“Copilot”应用程序的浪潮,塑造了开发者辅助和LLM应用程序的未来。 如今,Albert 继续在 AI 技术的前沿推动边界,担任 AI 网络安全公司 XBOW 的 AI 部门负责人。在那里,他领导将大语言模型与尖端安全应用结合的工作,致力于保护未来数字世界的安全。

成为VIP会员查看完整内容
47

本手稿提供了一个全面、最新的强化学习(深度强化学习)与序列决策制定领域的概述,涵盖了基于值的方法、策略梯度方法、基于模型的方法以及其他多个主题(包括对强化学习与大语言模型(RL+LLMs)的简要讨论)。

强化学习概述

**序言

文章旨在提供一个强化学习领域的全面概览,包含了来自Murphy先前教科书章节的内容,并添加了大量新资料。

**1. 引言

1.1 顺序决策制定:定义了问题,介绍了通用模型,区分了情节任务与连续任务,并讨论了遗憾的概念。 * 1.2 典型示例:包括部分观测MDPs、上下文MDPs、上下文Bandits、信念状态MDPs和优化问题等实例。 * 1.3 强化学习:分为基于价值的RL(近似动态规划)、基于策略的RL、基于模型的RL,并探讨了如何处理部分可观察性的问题。

**内容框架

文章涵盖了强化学习的基础概念、经典示例以及不同的学习方法,如: * 基于价值的方法(Value-based RL) * 基于策略的方法(Policy-based RL) * 基于模型的方法(Model-based RL)

此外,还深入讨论了各种应用领域和技术进步,例如深度强化学习中的树结构模型(TreeQN)、用于离线强化学习的极简方法、信任区域策略优化(TRPO)、优先经验回放(Prioritized Experience Replay)、通用优势估计(Generalized Advantage Estimation)、近端策略优化算法(PPO),以及其他最新的研究成果和技术进展。

强化学习的应用和技术

文中引用了许多研究工作来展示强化学习在不同场景下的应用,比如使用深度神经网络进行连续控制、通过内在动机加速学习过程、结合语言模型实现世界建模等。同时,也提到了一些重要的技术发展,如DQN、DDPG、TD3、SAC等算法的发展及其对解决复杂环境问题的影响。 总之,这篇文章为读者提供了一个理解强化学习基本原理及其最新发展的全面视角,适合希望深入了解这一领域的研究人员和从业者阅读。

成为VIP会员查看完整内容
5
Top
微信扫码咨询专知VIP会员