提示工程:通过符号程序搜索

2024年04月24日 由 alex 发表 155 0

众所周知,LLM 的成功在很大程度上仍然取决于我们是否有能力用正确的指令和示例来提示它们。随着新一代 LLM 的功能越来越强大,提示程序也变得越来越复杂,足以被视为程序本身。这些提示程序很像菜谱--两者都有一套指令需要遵循,并对原材料(无论是数据还是配料)进行转换。


因此,提示工程类似于改进菜谱。家庭厨师通常会遵守食谱的总体要求,但会做一些小改动,例如在面食中不放大蒜或添加香菜。像 DSPy 这样的框架在优化上下文示例时就遵循了这一整体范式。然而,专业级厨师会将菜谱作为灵感来源,并经常完全重新诠释菜肴的组成部分。例如,他们可能将意大利面中的面条视为淀粉成分,并可能将其换成新做的团子,以获得类似的成分。


抽象提示的力量

假设我们想改进一个用于标注说话人回答的提示。我们最终会用许多不同的输入来运行它,但现在先插入一个具体的输入:


Instructions: Does Speaker 2's answer mean yes or no?
Output labels: no, yes
Input: Speaker 1: "You do this often?" Speaker 2: "It's my first time."
Output:


暂且假设我们有一个抽象的提示表示法,它可以抽出不同的组成部分,并且易于操作。也许可以这样:


5


有了它,你就可以自动完成在及时原型开发过程中必须进行的大量(半)手工修补工作。进行诸如转述之类的小编辑只是一个开始。想试试思维链推理吗?添加一段 “让我们逐步思考”。将数据格式改为 JSON 格式如何?只需更改 InputData 参数的 formatattribute 即可。你还可以探索:


  • 从单一示例到批量注释
  • 在 RAG 场景中更改检索器和排序功能
  • 重新排列某些段落的顺序
  • 压缩说明的某些部分
  • ETC


从本质上讲,你可以输入你最喜欢的提示工程启发式。这种抽象的提示表示法让我们能够真正发挥创意,自动探索大量可能的提示。


将提示转化为抽象程序

要表示抽象提示符,我们首先要将其转换为非符号提示符程序,将其分解为单独的组件,以 Python 类的形式实现:


class Component:
    def __init__(self, **kwargs): pass
class Metaprompt(Component): pass
class Paragraph(Component): pass
class InputData(Component): pass
    
prompt = Metaprompt(
    children=[
        Paragraph(text="Instructions: "),
        Paragraph(
            id="instructions",
            text="Does Speaker 2's answer mean yes or no?",
        ),
        Paragraph(id="labels", text="Output labels: yes, no"),
        InputData(),
        Paragraph(text="Output: "),
    ]
)


到目前为止,一切顺利。这与 DSpy 所做的工作类似,但更为通用,因为我们还表示了提示符的内部结构。


接下来,我们要把它变成一个符号提示程序,这样就可以进行任意修改(这也超出了静态 DSPy 程序的范围)。pyGlove 将 Python 类转化为可操作的符号对象,其属性在实例化后仍可完全编辑。


有了 pyGlove,我们只需添加 pg.symbolize 装饰器即可:


import pyglove as pg
@pg.symbolize
class Component:
    def __init__(self, **kwargs): pass


现在,我们可以通过大量的说明符来查询和修改提示程序,就像使用 DOM 树一样。比方说,我们想把上面的程序转化为下面的程序:


6


请注意,我们现在问的是 "回答是否表示是?",而不是提供 "是 "和 "否 "的输出标签。为此,我们需要 (i) 更改指令文本,(ii) 删除第三个节点。有了 pyGlove,这就很容易了:


prompt.rebind({'children[1].text': 'Does the response mean yes?'})'children[1].text': 'Does the response mean yes?'})
prompt.rebind({'children[2]': pg.MISSING_VALUE})
print(prompt)


打印输出确认我们成功了:


Metaprompt(
  children = [
    0 : Paragraph(
      text = 'Instructions: '
    ),
    1 : Paragraph(
      id = 'instructions',
      text = 'Does the response mean yes?'
    ),
    2 : InputData(),
    3 : Paragraph(
      text = 'Output: '
    )
  ]
)


就是这样!从根本上说,pyGlove 给了我们一种处理 Python 类(和函数)的方法,就像处理源代码一样,而且开销很小。现在,我们有了灵活且易于操作的表示法,让我们来使用它们吧。


等一下。我们现在可能有了表示和修改提示的方法,但还缺少一个自动优化提示的过程。


一旦厨师们了解了菜谱的抽象概念和组成部分,他们就会尝试多种变体,改进口味、成本或表现形式,直到感觉合适为止。要对提示抽象进行同样的处理,我们需要一种搜索算法、一个目标以及一组标注样本,这样才能知道我们是否取得了进展。


使用 SAMMO 调整指令

为了说明 SAMMO 的核心工作流程,我们现在将展示如何调整上面提示示例中的指令部分。一旦我们完成了这个玩具示例,我们就可以讨论更高级的应用,如 RAG 优化或压缩。


关键步骤如下:


  1. 确定起始提示
  2. 准备好数据--几百个带标签的示例就足够了。
  3. 确定目标
  4. 选择一组突变体
  5. 运行优化


步骤 1:定义开始提示

这一步我们在上文已经做得差不多了。SAMMO 期望使用一个函数,因此我们必须将其封装为一个函数。如果你想存储额外的信息,可以用 Callable 代替。我们还将把它封装在一个输出组件中以运行它。


def starting_prompt():
    instructions = MetaPrompt(
        Paragraph(text="Instructions: "),
        Paragraph(
            id="instructions",
            text="Does Speaker 2's answer mean yes or no?",
        ),
        Paragraph(id="labels", text="Output labels: yes, no"),
        InputData(),
        Paragraph(text="Output: "),
    )
    return Output(instructions.with_extractor())


步骤 2:准备好数据

SAMMO 使用名为 DataTable 的简单数据结构将输入与输出(标签)配对。这将有助于我们进行评估和记账。


mydata = DataTable.from_records(
    records, # list of {"input": <>, "output": <>}# list of {"input": <>, "output": <>}
    constants={"instructions": default_instructions}, 
)


步骤 3:确定目标

我们感兴趣的是优化精确度,因此这就是我们下面要实现的目标:


def accuracy(y_true: DataTable, y_pred: DataTable) -> EvaluationScore:
    y_true = y_true.outputs.normalized_values()
    y_pred = y_pred.outputs.normalized_values()
    n_correct = sum([y_p == y_t for y_p, y_t in zip(y_pred, y_true)])
    return EvaluationScore(n_correct / len(y_true))


步骤 4:选择一组突变体

在这里,你可以尽情发挥自己的创造力。你可以实现自己的运算符来生成新的提示变体,也可以简单地依赖 SAMMO 提供的预置变异运算符。


在下文中,我们将采用后者,从一些标注的示例中混合使用转述和诱导指令,基本上实现了自动提示工程(APE)。


mutation_operators = BagOfMutators(
    starting_prompt=StartingPrompt(d_train),
    InduceInstructions({"id": "instructions"}, d_train),"id": "instructions"}, d_train),
    Paraphrase({"id": "instructions"}),
)


步骤 5:运行优化


runner = OpenAIChat(
    model_id="gpt-3.5-turbo-16k","gpt-3.5-turbo-16k",
    api_config={"api_key": YOUR_KEY},
    cache="cache.tsv",
)
prompt_optimizer = BeamSearch(runner, mutation_operators, accuracy, depth=6)
transformed = prompt_optimizer.fit_transform(d_train)


介绍性提示示例实际上取自 BigBench 含义任务,我们将用它来运行本实验。如果使用 100 个样本进行训练和测试,并以 48 个候选评估为预算进行优化,你会发现 SAMMO 将起始提示的准确率从 0.56 提高到了 0.77 - 提高了 37.5%。哪些指令效果最好?


...
Paragraph(
    "Consider the dialogue, context, and background ""Consider the dialogue, context, and background "
    "information provided to determine the most suitable output label",
    id="instructions",
)
...


有趣的是,不同的 LLM 喜欢的指令大相径庭。如上所述,GPT-3.5 最喜欢通用指示。在相同的训练和预算设置下,SAMMO 选择的 Llama-2 最佳提示在指令部分使用了空字符串:


...
Paragraph(
    "","",
    id="instructions",
)
...


实际操作: RAG 调整

现在,我们将展示如何将 RAG 管道转换为符号程序,并使用 SAMMO 对其进行调整。我们将使用语义解析作为应用任务,将用户查询转化为特定领域语言 (DSL) 结构,例如,查询某些数据库或调用外部 API。


为了创建起始提示,我们列出了所有运算符的列表,使用基于嵌入的检索器获取五个少量示例,然后指示 LLM 以与示例相同的格式输出答案。


class RagStartingPrompt:
    def __init__(self, dtrain, examples, embedding_runner):
        self._examples = examples
        self._dtrain = dtrain
        self._embedding_runner = embedding_runner
    def __call__(self, return_raw=False):
        structure = [
            Section("Syntax", self._dtrain.constants["list_of_operators"]),
            Section(
                "Examples",
                EmbeddingFewshotExamples(
                    self._embedding_runner, self._examples, 5
                ),
            ),
            Section(
                "Complete and output in the same format as above",
                InputData(),
            ),
        ]
        instructions = MetaPrompt(
            structure,
            render_as="markdown",
            data_formatter=JSONDataFormatter(),
        )  
        return Output(
            instructions.with_extractor(),
            on_error="empty_result",
        )


现在我们有了一个符号程序,让我们发挥创意吧。对于突变,我们探索:


  • 不同数量的少量示例
  • 少量示例的不同格式(XML、JSON、逐行格式
  • 是否提供有关 DSL 的附加信息
  • 显示输入输出对或输入输出组


使用这些示例和总共 24 个候选示例运行 SAMMO,我们可以看到一个明显的趋势。以下是四个不同 LLM 的三个不同数据集的测试集准确率。在绝大多数情况下,我们可以看到 SAMMO 可以大幅提升性能,即使是性能最高的 LLM 也不例外。


7


结论

将提示语转换为符号程序是一个非常强大的想法,可以探索可能的提示语和设置的巨大设计空间。就像专业厨师通过解构和重新诠释食谱来进行烹饪创新一样,符号编程也能让我们在自动提示工程中发挥同样的创造力和实验精神。

文章来源:https://medium.com/towards-data-science/supercharging-prompt-engineering-via-symbolic-program-search-c6c353bc80a4
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
热门职位
Maluuba
20000~40000/月
Cisco
25000~30000/月 深圳市
PilotAILabs
30000~60000/年 深圳市
写评论取消
回复取消