英文

bart-large-mnli: instruction tuned - v1

这个模型是在 pszemraj/dolly_hhrlhf-text2text 数据集上进行微调的 facebook/bart-large-mnli 的版本。

模型描述

在一个相对自由的 mosaicml/dolly_hhrlhf 数据集上,对 text2text 模型进行了微调。

在 Python 中的基本用法:

# pip install -q transformers accelerate
import torch
from transformers import pipeline, GenerationConfig

model_name = "pszemraj/bart-large-mnli-instruct-dolly_hhrlhf-v1"
assistant = pipeline(
    "text2text-generation",
    model_name,
    device_map="auto",
)
cfg = GenerationConfig.from_pretrained(model_name)

# pass an 'instruction' as the prompt to the pipeline
prompt = "Write a guide on how to become a ninja while working a 9-5 job."
result = assistant(prompt, generation_config=cfg)[0]["generated_text"]
print(result)

生成配置的使用是可选的,可以用其他生成参数来替代。

预期用途和限制

  • 这个模型没有使用 RLHF 等进行微调,可能会产生冒犯性的结果。
  • 虽然比 BART-base 要大,但与最近的自回归模型(MPT-7b、LLaMA 等)相比,这个模型相对较小,因此它的 "认知" 能力对于某些任务可能实际上有限。

训练

训练超参数

在训练过程中使用了以下超参数:

  • learning_rate: 4e-05
  • train_batch_size: 8
  • eval_batch_size: 8
  • seed: 42
  • distributed_type: multi-GPU
  • gradient_accumulation_steps: 8
  • total_train_batch_size: 64
  • optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
  • lr_scheduler_type: cosine
  • lr_scheduler_warmup_ratio: 0.03
  • num_epochs: 3.0