模型:
pszemraj/bart-base-instructiongen-w-inputs
使用这个文本到文本模型来查找LLM指令(和相关的输入),可能生成了<任意输入文本>!
这个模型是在pszemraj/fleece2instructions-inputs-alpaca-cleaned数据集上进行微调的版本 facebook/bart-base 。
它在评估集上取得了以下结果:
该模型旨在用于从任意文本生成指令。然后,您可以使用这些指令+您的数据来微调关于特定领域的LLM。该模型主要用于实现低资源领域自适应,而不是“我想为FLAN-V2数据集生成更好的提示!”。
获取自ODC-BY许可的 alpaca-lora repo 中的fleece2instructions-inputs-alpaca-cleaned数据集已转换为文本到文本格式,以供语言模型使用。在该数据集中,原始的“inputs”和“instructions”列被合并成一个名为“instructions_inputs”的列。为了清楚地分开这两种类型的内容,每个文本片段都以<instruction>或<inputs>令牌为前缀。这些令牌不仅有助于模型理解,还允许在推理过程中轻松实现模型输出的正则分离。
因此,用户可以期望该模型的输出与<instruction>和<inputs>令牌类似地结构化。
这只是基础模型,为了更好的性能(但速度较慢/计算密集型),请参考 bart-large 版本。进一步的探索/数据可能会带来更好的模型!
参考 fleece2instructions-inputs-alpaca-cleaned 数据集
培训过程中使用了以下超参数:
Training Loss | Epoch | Step | Validation Loss | Rouge1 | Rouge2 | Rougel | Rougelsum | Gen Len |
---|---|---|---|---|---|---|---|---|
1.1147 | 1.0 | 680 | 0.9901 | 61.8451 | 38.8293 | 58.3372 | 59.8658 | 25.2401 |
0.9565 | 2.0 | 1360 | 0.9579 | 62.3604 | 39.5109 | 58.8843 | 60.4494 | 24.9917 |