在思考大型语言模型的输入与输出时,文本提示(有时还包括其他模态,例如图像提示)是模型用来预测特定输出的输入内容。你无需成为数据科学家或机器学习工程师——每个人都可以编写提示词。然而,要构造最有效的提示词可能相当复杂。许多因素都会影响提示词的效果:所使用的模型、模型的训练数据、模型的配置参数、你的措辞、风格与语气、结构以及上下文,都是关键因素。因此,提示词工程是一个迭代的过程。不恰当的提示词可能会导致模糊、不准确的响应,甚至阻碍模型生成有意义的输出。 当你与 Gemini 聊天机器人互动时,实际上就是在编写提示词;不过,本白皮书更侧重于在 Vertex AI 中或通过 API 使用 Gemini 模型时的提示词编写,因为通过直接调用模型,你可以访问包括温度(temperature)在内的各种配置参数。 本白皮书将深入探讨提示词工程。我们将介绍多种提示技巧,帮助你入门,并分享一些提示编写的技巧和最佳实践,助你成为提示词专家。我们还将讨论在构建提示词过程中可能遇到的一些挑战。

成为VIP会员查看完整内容
43

相关内容

LLM驱动的指令遵循:进展,213页ppt
专知会员服务
69+阅读 · 2023年12月30日
【CIKM2023教程】会话人工智能的数据增强,170页ppt
专知会员服务
45+阅读 · 2023年11月11日
【ChatGPT系列报告】AIGC投资框架,66页ppt
专知会员服务
77+阅读 · 2023年6月15日
1370亿参数、接近人类水平,谷歌对话AI模型LaMDA放出论文
知识图谱KG在NLP的十年研究进展综述
专知
16+阅读 · 2022年10月4日
如何使用自然语言工具包(NLTK)在Python3中执行情感分析
Python程序员
21+阅读 · 2019年10月28日
NAACL 2019 | 一种考虑缓和KL消失的简单VAE训练方法
PaperWeekly
20+阅读 · 2019年4月24日
LibRec 每周算法:LDA主题模型
LibRec智能推荐
29+阅读 · 2017年12月4日
国家自然科学基金
14+阅读 · 2017年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
45+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
Arxiv
168+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
454+阅读 · 2023年3月31日
Arxiv
68+阅读 · 2022年9月7日
Arxiv
28+阅读 · 2021年10月1日
Memory-Gated Recurrent Networks
Arxiv
12+阅读 · 2020年12月24日
Arxiv
13+阅读 · 2020年8月3日
Arxiv
11+阅读 · 2018年7月31日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
14+阅读 · 2017年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
45+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
相关论文
Arxiv
168+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
454+阅读 · 2023年3月31日
Arxiv
68+阅读 · 2022年9月7日
Arxiv
28+阅读 · 2021年10月1日
Memory-Gated Recurrent Networks
Arxiv
12+阅读 · 2020年12月24日
Arxiv
13+阅读 · 2020年8月3日
Arxiv
11+阅读 · 2018年7月31日
微信扫码咨询专知VIP会员