模型:
pszemraj/flan-t5-base-instruct-dolly_hhrlhf
该模型是在pszemraj/dolly_hhrlhf-text2text数据集上对 google/flan-t5-base 进行微调的版本。
基于相对宽松的 mosaicml/dolly_hhrlhf 数据集对文本到文本模型进行微调。
在Python中的基本用法:
# pip install -q transformers accelerate import torch from transformers import pipeline, GenerationConfig model_name = "pszemraj/flan-t5-base-instruct-dolly_hhrlhf" assistant = pipeline( "text2text-generation", model_name, device=0 if torch.cuda.is_available() else -1, ) cfg = GenerationConfig.from_pretrained(model_name) # pass an 'instruction' as the prompt to the pipeline prompt = "Write a guide on how to become a ninja while working a 9-5 job." result = assistant(prompt, generation_config=cfg)[0]["generated_text"] print(result)
* 使用生成配置是可选的,可以替换为其他生成参数。
在训练过程中使用了以下超参数: