GPT-Neo 1.3B 是一种使用EleutherAI对GPT-3架构进行复制设计的Transformer模型。GPT-Neo指的是模型的类别,而1.3B表示该预训练模型的参数数量。
GPT-Neo 1.3B是在Pile上进行训练的,Pile是由EleutherAI为训练这个模型而创建的一个大规模策划数据集。
该模型在Pile上进行了3800亿个令牌的训练,共362,000个步骤。它作为一个掩码自回归语言模型进行训练,使用了交叉熵损失。
这样,模型学习了英语的内部表示,可以用来提取对下游任务有用的特征。然而,该模型最擅长的是其预训练任务,即根据提示生成文本。
您可以直接使用该模型进行文本生成。以下示例每次运行都会生成一个不同的序列:
>>> from transformers import pipeline >>> generator = pipeline('text-generation', model='EleutherAI/gpt-neo-1.3B') >>> generator("EleutherAI has", do_sample=True, min_length=50) [{'generated_text': 'EleutherAI has made a commitment to create new software packages for each of its major clients and has'}]
GPT-Neo是作为一个自回归语言模型进行训练的。这意味着其核心功能是输入一串文本并预测下一个标记。虽然语言模型广泛用于除此任务之外的其他任务,但在这项工作中还存在许多不确定因素。
GPT-Neo是在Pile上进行训练的,该数据集已知包含粗话、下流和其他令人讨厌的语言。根据您的用例,GPT-Neo可能会生成不符合社会规范的文本。有关Pile中偏见的详细分析,请参阅Pile论文的第5节和第6节。
与所有语言模型一样,很难预测GPT-Neo对特定提示的反应,可能会出现冒犯性内容而没有警告。我们建议在发布之前由人工进行内容审核或过滤,以便审查不良内容并提高结果的质量。
Model and Size | Pile BPB | Pile PPL | Wikitext PPL | Lambada PPL | Lambada Acc | Winogrande | Hellaswag |
---|---|---|---|---|---|---|---|
GPT-Neo 1.3B | 0.7527 | 6.159 | 13.10 | 7.498 | 57.23% | 55.01% | 38.66% |
GPT-2 1.5B | 1.0468 | ----- | 17.48 | 10.634 | 51.21% | 59.40% | 40.03% |
GPT-Neo 2.7B | 0.7165 | 5.646 | 11.39 | 5.626 | 62.22% | 56.50% | 42.73% |
GPT-3 Ada | 0.9631 | ----- | ----- | 9.954 | 51.60% | 52.90% | 35.93% |
Model and Size | MathQA | PubMedQA | Piqa |
---|---|---|---|
GPT-Neo 1.3B | 24.05% | 54.40% | 71.11% |
GPT-2 1.5B | 23.64% | 58.33% | 70.78% |
GPT-Neo 2.7B | 24.72% | 57.54% | 72.14% |
GPT-3 Ada | 24.29% | 52.80% | 68.88% |
待定
要引用此模型,请使用以下内容
@software{gpt-neo, author = {Black, Sid and Leo, Gao and Wang, Phil and Leahy, Connor and Biderman, Stella}, title = {{GPT-Neo: Large Scale Autoregressive Language Modeling with Mesh-Tensorflow}}, month = mar, year = 2021, note = {{If you use this software, please cite it using these metadata.}}, publisher = {Zenodo}, version = {1.0}, doi = {10.5281/zenodo.5297715}, url = {https://doi.org/10.5281/zenodo.5297715} } @article{gao2020pile, title={The Pile: An 800GB Dataset of Diverse Text for Language Modeling}, author={Gao, Leo and Biderman, Stella and Black, Sid and Golding, Laurence and Hoppe, Travis and Foster, Charles and Phang, Jason and He, Horace and Thite, Anish and Nabeshima, Noa and others}, journal={arXiv preprint arXiv:2101.00027}, year={2020} }