英文

flan-t5-base-instruct:dolly_hhrlhf

该模型是在pszemraj/dolly_hhrlhf-text2text数据集上对 google/flan-t5-base 进行微调的版本。

模型描述

基于相对宽松的 mosaicml/dolly_hhrlhf 数据集对文本到文本模型进行微调。

在Python中的基本用法:

# pip install -q transformers accelerate
import torch
from transformers import pipeline, GenerationConfig

model_name = "pszemraj/flan-t5-base-instruct-dolly_hhrlhf"
assistant = pipeline(
    "text2text-generation",
    model_name,
    device=0 if torch.cuda.is_available() else -1,
)
cfg = GenerationConfig.from_pretrained(model_name)

# pass an 'instruction' as the prompt to the pipeline
prompt = "Write a guide on how to become a ninja while working a 9-5 job."
result = assistant(prompt, generation_config=cfg)[0]["generated_text"]
print(result)

* 使用生成配置是可选的,可以替换为其他生成参数。

预期用途和限制

  • 这是没有经过RLHF等调优的,并且可能输出冒犯性结果。
  • 该模型相对较小,因此其“认知”能力相对有限。

训练过程

训练超参数

在训练过程中使用了以下超参数:

  • 学习率:4e-05
  • 训练批大小:8
  • 评估批大小:16
  • 种子:42
  • 分布式类型:multi-GPU
  • 梯度累积步数:8
  • 总训练批大小:64
  • 优化器:Adam,beta值为(0.9,0.999),epsilon值为1e-08
  • 学习率调度程序类型:cosine
  • 学习率调度程序预热比例:0.03
  • 训练轮数:2.0