英文

flan-t5-large-instruct: dolly_hhrlhf

这个模型是在pszemraj/dolly_hhrlhf-text2text数据集上微调的 google/flan-t5-large 的版本。

模型描述

基于相对宽松的 mosaicml/dolly_hhrlhf 数据集,对文本到文本模型进行微调。

Python的基本用法:

# pip install -q transformers accelerate
import torch
from transformers import pipeline, GenerationConfig

model_name = "pszemraj/flan-t5-large-instruct-dolly_hhrlhf"
assistant = pipeline(
    "text2text-generation",
    model_name,
    device=0 if torch.cuda.is_available() else -1,
)
cfg = GenerationConfig.from_pretrained(model_name)

# pass an 'instruction' as the prompt to the pipeline
prompt = "Write a guide on how to become a ninja while working a 9-5 job."
result = assistant(prompt, generation_config=cfg)[0]["generated_text"]
print(result)

使用生成配置是可选的,可以替代其他生成参数。

预期用途和限制

  • 这个模型没有通过RLHF等进行调优,可能会输出冒犯性的结果。
  • 尽管是大型标记变体,但这个模型只有774M的参数(3 GB),在某些用例/任务中可能表现出较少的“认知能力”。

训练过程

训练超参数

训练过程中使用了以下超参数:

  • learning_rate: 4e-05
  • train_batch_size: 8
  • eval_batch_size: 16
  • seed: 42
  • distributed_type: multi-GPU
  • gradient_accumulation_steps: 8
  • total_train_batch_size: 64
  • optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
  • lr_scheduler_type: cosine
  • lr_scheduler_warmup_ratio: 0.03
  • num_epochs: 2.0