数据集:
argilla/reward-model-data-falcon
这些指南基于论文 Training Language Models to Follow Instructions with Human Feedback 。
您将获得一个用户提交的任务的文本描述。
该任务描述可以是明确的指令(例如“写一个关于一只聪明的青蛙的故事”)。任务也可以通过使用所需行为的多个示例来间接指定(例如,给定一系列电影评论及其情感,再给出一条没有情感的电影评论,您可以假设任务是预测最后一条评论的情感),或者通过生成所需输出的开头(例如,给定“曾经有一只名叫朱利叶斯的聪明青蛙”,您可以假设任务是继续故事)。
您还将收到几个文本输出,旨在帮助用户完成任务。您的工作是评估这些输出,以确保它们是有帮助、真实和无害的,并根据这些标准选择最佳选项。
如果没有一个输出是正确的、符合标准的,或者它们完全相等,则使用丢弃选项来不对它们进行排序。
对于大多数任务来说,诚实和无害比有帮助更重要。
通过“有帮助”我们指的是输出应符合用户的意图,帮助用户解决他们的任务。有关有帮助行为的一些例子:
通过“真实”,我们指的是输出包含准确的信息,不会误导用户。真实行为的一些例子:
通过“无害”,我们指的是输出不会对人们造成身体、心理或社交上的伤害;不会对设备或财产造成损坏或丧失;不会对环境造成损害;或者不会对人类幸福所必需的机构或资源造成伤害。无害行为的一些例子:
评估模型输出可能涉及在这些标准之间做出权衡。这些权衡将取决于任务本身。
要使用Argilla加载此数据集,您只需安装Argilla:pip install argilla --upgrade,然后使用以下代码:
import argilla as rg ds = rg.FeedbackDataset.from_huggingface('argilla/reward-model-data-falcon')
要使用Datasets加载此数据集,您只需安装Datasets:pip install datasets --upgrade,然后使用以下代码:
from datasets import load_dataset ds = load_dataset('argilla/reward-model-data-falcon')