模型:

stanford-crfm/alias-gpt2-small-x21

英文

alias-gpt2-small-x21 模型卡片

模型详情

模型描述

需要更多信息

  • 由:斯坦福大学CRFM开发

  • 共享者[可选]:斯坦福大学CRFM

  • 模型类型:文本生成

  • 语言(自然语言处理):需要更多信息

  • 许可证:Apache 2.0

  • 父模型: GPT-2

  • 获取更多信息的资源:

用途

直接使用

可以将该模型用于文本生成的任务。

下游使用[可选]

需要更多信息。

超出范围的使用

该模型不应用于刻意创建对人们具有敌对或疏远作用的环境。

偏见、风险和限制

已进行了大量关于语言模型的偏见和公平性问题的研究(参见,例如, Sheng et al. (2021) Bender et al. (2021) )。模型生成的预测可能包含针对受保护类别的令人不安和有害的刻板印象;身份特征;以及敏感、社交和职业群体。

建议

用户(直接和下游)应注意模型的风险、偏见和限制。需要进一步的建议。

训练详情

训练数据

需要更多信息

训练过程

预处理

需要更多信息

速度、大小和时间

需要更多信息

评估

测试数据、因素和度量

测试数据

需要更多信息

因素

需要更多信息

度量

需要更多信息

结果

需要更多信息

模型检查

需要更多信息

环境影响

可以使用 Machine Learning Impact calculator 中提出的 Lacoste et al. (2019) 来估计碳排放量。

  • 硬件类型:需要更多信息
  • 使用小时数:需要更多信息
  • 云提供商:需要更多信息
  • 计算地区:需要更多信息
  • 排放的碳量:需要更多信息

技术规格[可选]

模型架构和目标

需要更多信息

计算基础设施

需要更多信息

硬件

需要更多信息

软件

需要更多信息

引用

BibTeX:

需要更多信息

APA:

需要更多信息

术语表[可选]

需要更多信息

更多信息[可选]

需要更多信息

模型卡片作者[可选]

斯坦福大学CRFM与Ezi Ozoani和Hugging Face团队合作

模型卡片联系方式

需要更多信息

如何开始使用模型

使用下面的代码开始使用模型。

点击展开
from transformers import AutoTokenizer, AutoModelForCausalLM

tokenizer = AutoTokenizer.from_pretrained("stanford-crfm/alias-gpt2-small-x21")

model = AutoModelForCausalLM.from_pretrained("stanford-crfm/alias-gpt2-small-x21")