模型:
pszemraj/flan-t5-large-instruct-dolly_hhrlhf
这个模型是在pszemraj/dolly_hhrlhf-text2text数据集上微调的 google/flan-t5-large 的版本。
基于相对宽松的 mosaicml/dolly_hhrlhf 数据集,对文本到文本模型进行微调。
Python的基本用法:
# pip install -q transformers accelerate import torch from transformers import pipeline, GenerationConfig model_name = "pszemraj/flan-t5-large-instruct-dolly_hhrlhf" assistant = pipeline( "text2text-generation", model_name, device=0 if torch.cuda.is_available() else -1, ) cfg = GenerationConfig.from_pretrained(model_name) # pass an 'instruction' as the prompt to the pipeline prompt = "Write a guide on how to become a ninja while working a 9-5 job." result = assistant(prompt, generation_config=cfg)[0]["generated_text"] print(result)
使用生成配置是可选的,可以替代其他生成参数。
训练过程中使用了以下超参数: