GPT-Neo 2.7B-Janeway 是使用EleutherAI的GPT-Neo 2.7B模型进行fine-tune创建的。
训练数据包含大约2210本电子书,主要涵盖科幻和奇幻类型。该数据集基于GPT-Neo-2.7B-Picard使用的相同数据集,其中增加了20%的来自不同流派的数据。数据集的某些部分在前面加入了以下文本:[流派:,]。
您可以直接使用该模型来进行文本生成。下面的示例每次运行时都会生成不同的序列:
>>> from transformers import pipeline >>> generator = pipeline('text-generation', model='KoboldAI/GPT-Neo-2.7B-Janeway') >>> generator("Welcome Captain Janeway, I apologize for the delay.", do_sample=True, min_length=50) [{'generated_text': 'Welcome Captain Janeway, I apologize for the delay."\nIt's all right," Janeway said. "I'm certain that you're doing your best to keep me informed of what\'s going on."'}]
GPT-Neo是一个自回归语言模型。这意味着它的核心功能是接收一串文本并预测下一个标记。尽管语言模型在其他任务中被广泛使用,但其中仍存在许多未知因素。GPT-Neo是在Pile数据集上进行训练的,该数据集已知含有亵渎、淫秽和冒犯性语言。根据您的用例,GPT-Neo可能会产生社会不可接受的文本。请参阅Pile论文的第5和第6节,以更详细地分析Pile中的偏见。与所有语言模型一样,很难预测GPT-Neo对特定提示的反应,可能会出现冒犯性内容而没有警告。我们建议在发布之前,将有人对生成的内容进行筛选或过滤,以便审查不希望出现的内容并提高结果的质量。
该模型是使用以下软件创建的:
@software{gpt-neo, author = {Black, Sid and Leo, Gao and Wang, Phil and Leahy, Connor and Biderman, Stella}, title = {{GPT-Neo: Large Scale Autoregressive Language Modeling with Mesh-Tensorflow}}, month = mar, year = 2021, note = {{If you use this software, please cite it using these metadata.}}, publisher = {Zenodo}, version = {1.0}, doi = {10.5281/zenodo.5297715}, url = {https://doi.org/10.5281/zenodo.5297715} }