模型:

minhtoan/gpt3-small-finetune-cnndaily-news

英文

GPT-3 小型版本

预训练的 GPT-3 小型版本,继续GPT NEO的开发,其架构刻意模仿 GPT-3,模型使用 CNN Daily Mail News 数据集进行文本生成训练。

如何使用该模型

from transformers import GPT2Tokenizer, GPTNeoForCausalLM

tokenizer = GPT2Tokenizer.from_pretrained('gpt3-small-finetune-cnndaily-news')
model = GPTNeoForCausalLM.from_pretrained('gpt3-small-finetune-cnndaily-news')

text = "Ever noticed how plane seats appear to be getting smaller and smaller? "
input_ids = tokenizer.encode(text, return_tensors='pt')
max_length = 150

sample_outputs = model.generate(input_ids, do_sample=True, max_length=max_length,temperature = 0.8)

for i, sample_output in enumerate(sample_outputs):
    print(">> Generated text {}\n\n{}".format(i+1, tokenizer.decode(sample_output.tolist())))
    print('\n---')

作者

Phan Minh Toan