提示工程:让GPT模型实现更优响应

2023年12月28日 由 samoyed 发表 184 0

OpenAI最近发布了一个有关提示工程的指南。该指南列出了六种策略,用于从他们的GPT模型中引出更好的回应,其中特别关注了他们最新版本——GPT-4的例子。


指南的六个高层次策略包括:编写清晰的指令、提供参考文本、将复杂任务分成更简单的子任务、给予模型“思考”的时间、使用外部工具以及系统地测试更改。每种策略都被分解为一套具体的、可操作的策略,以及示例提示。许多策略基于LLM研究的结果,例如思路链提示或递归汇总。


OIP-C


OpenAI在2020年发布的关于GPT-3的研究论文显示,该模型能够使用少量样本学习执行多种自然语言处理(NLP)任务;本质上,就是通过向模型提示一个描述或将要执行的任务的例子。在2022年,OpenAI发表了一篇使用手册,其中包含了几种“提高GPT-3响应可靠性”的技术。其中一些,如给出清晰的指令和分解复杂任务,仍然包含在新指南中。较早的使用手册也包含支持它们技术的研究论文书目。


指南中的一些策略利用了Chat API的系统消息。根据OpenAI的文档,这个参数“有助于设置助手的行为。”一个策略建议使用它给模型一个人格,以控制其回应。另一个建议使用它将一个长对话的总结传递给模型,或者给出一组指令,这些指令将被重复用于多个用户输入。


使用外部工具的策略提供了GPT模型与其他系统接口的技巧,同时提供了OpenAI使用手册中的文章。其中一个策略建议说,不是要求模型自己执行数学计算,而应该生成Python代码来进行计算;然后将代码从模型响应中提取并执行。不过,指南中确实包含了一条免责声明,即模型生成的代码不保证是安全的,只应在沙盒中执行。


指南中的另一个策略是系统地测试更改,涉及如何判断不同的提示是否实际上产生了更好或更差的输出。这一策略建议使用OpenAI Evals框架。该策略还建议使用该模型通过系统消息“参考黄金标准答案”来检查自己的工作。


在关于该指南的Hacker News讨论中,一位用户表示:


我一直在犹豫是否要花很多时间去学习如何完善提示。看起来每个新版本,更不用说不同的LLM,响应都会有所不同。随着这一技术肉眼可见的快速进步,在两年或五年内,随着系统变得更智能,我们可能甚至不需要如此复杂的提示。


其他几个LLM提供商也发布了提示工程技巧。提供GPT模型访问服务的Microsoft Azure有一系列类似于OpenAI的技术;他们的指南还提供了设置模型参数(如温度和topp)的技巧,这些参数可以控制模型输出生成的随机性。

文章来源:https://www.infoq.com/news/2023/12/openai-prompt-engineering/
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
写评论取消
回复取消