模型:
xlm-mlm-xnli15-1024
XLM模型是由Guillaume Lample和 Alexis Conneau于 Cross-lingual Language Model Pretraining 年提出的。xlm-mlm-xnli15-1024是使用屏蔽语言模型(MLM)目标在英语NLI数据集上进行了微调的transformer预训练模型。模型开发人员评估了模型在所有15种XNLI语言上进行正确预测的能力(有关XNLI的更多信息,请参见 XNLI data card )。
该模型是一个语言模型。可以用于跨语言文本分类。虽然该模型基于英文文本数据进行了微调,但模型在其他14种语言中分类句子的能力已经得到评估(详见评估)。
此模型可用于与不同语言的自然语言推理相关的下游任务。详见 associated paper 了解更多信息。
不应该使用模型有意创建对人有敌意或让人产生疏远感的环境。
已经有大量的研究探讨了语言模型的偏见和公平性问题(参见 Sheng et al. (2021) 和 Bender et al. (2021) 等)。
用户(包括直接用户和下游用户)应该意识到模型的风险、偏见和限制。
训练详情从 associated paper 提取而来。有关链接、引用和更多细节,请参见论文。还请参阅相关的 GitHub Repo 以获取更多详细信息。
模型开发者写道:
我们使用WikiExtractor2从维基百科转储中提取原始句子,并将它们用作CLM和MLM目标的单语数据。对于TLM目标,我们仅使用涉及英语的平行数据,类似于Conneau等人的方法(2018b)。
在微调中,开发者使用了英语NLI数据集(详见 XNLI data card )。
模型开发者写道:
我们使用fastBPE来学习BPE代码并将单词分割为子单词单元。BPE代码是在从所有语言中采样的句子的连接上学习的,遵循第3.1节中提出的方法。
模型开发者写道:
我们使用带有1024隐藏单元、8个头、GELU激活(Hendrycks和Gimpel,2016)、丢弃率为0.1和学习的位置嵌入的Transformer架构。我们使用Adam优化器(Kingma和Ba,2014)、线性预热(Vaswani等人,2017)和学习率从10^−4变化到5.10^−4进行训练。
对于CLM和MLM目标,我们使用256个标记流和大小为64的迷你批次。与Devlin等人(2018)不同,迷你批次中的序列可以包含多于两个连续句子,如第3.2节所述。对于TLM目标,我们采样长度相似的句子,生成4000个标记的迷你批次。我们使用语言的平均困惑度作为训练的停止准则。对于机器翻译,我们只使用了6层,并创建了2000个标记的迷你批次。
在进行XNLI微调时,我们使用大小为8或16的迷你批次,并将句子长度剪切为256个单词。我们使用80k个BPE分割和一个包含XNLI语言维基百科的词汇表进行12层模型的训练。我们使用范围在5.10^−4到2.10^−4之间的数值对Adam优化器的学习率进行采样,并使用包含20000个随机样本的小型评估周期。我们使用变换器最后一层的第一个隐藏状态作为随机初始化的最后线性分类器的输入,并微调所有参数。在我们的实验中,使用最大池化或平均池化比使用第一个隐藏状态效果更好。
我们使用PyTorch(Paszke等人,2017)实现所有模型的训练,并在语言建模任务中使用64个Volta GPU,在MT任务中使用8个GPU。我们使用float16操作加快训练速度并减少模型的内存使用。
在将模型在英语NLI数据集上进行微调后,模型开发者使用XNLI数据和测试准确性作为度量标准评估了模型在15种XNLI语言中进行正确预测的能力。详见 associated paper 以获取更多详细信息。
Language | en | fr | es | de | el | bg | ru | tr | ar | vi | th | zh | hi | sw | ur |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Accuracy | 83.2 | 76.5 | 76.3 | 74.2 | 73.1 | 74.0 | 73.1 | 67.8 | 68.5 | 71.2 | 69.2 | 71.9 | 65.7 | 64.6 | 63.4 |
可以使用 Machine Learning Impact calculator 来估计碳排放量,该信息在 Lacoste et al. (2019) 中介绍。
详细信息来自 associated paper 。有关链接、引用和更多细节,请参见论文。还请参阅相关的 GitHub Repo 以获取更多详细信息。
xlm-mlm-xnli15-1024是使用屏蔽语言模型(MLM)目标在英语NLI数据集上进行了微调的transformer预训练模型。对于MLM目标,开发者写道:
我们还考虑了Devlin等人(2018)的屏蔽语言建模(MLM)目标,也被称为Cloze任务(Taylor, 1953)。根据Devlin等人(2018)的方法,我们随机从文本流中抽取15%的BPE标记,80%的时间用[MASK]标记替换,10%的时间用随机标记替换,10%的时间保持不变。我们的方法与Devlin等人(2018)的方法的差异包括使用任意数量句子的文本流(截断为256个标记)而不是句对。为了解决稀有标记和频繁标记(例如标点符号或停用词)之间的不平衡,我们还使用了类似于Mikolov等人(2013b)的方法来对频繁输出进行子采样:文本流中的标记根据多项分布进行采样,其权重与其倒数频率的平方根成比例。我们的MLM目标示例如图1所示。
开发者写道:
我们使用PyTorch(Paszke等人,2017)实现所有模型,并在语言建模任务中使用64个Volta GPU,MT任务中使用8个GPU。我们使用float16操作加快训练速度并减少模型的内存使用。
BibTeX:
@article{lample2019cross, title={Cross-lingual language model pretraining}, author={Lample, Guillaume and Conneau, Alexis}, journal={arXiv preprint arXiv:1901.07291}, year={2019} }
APA:
本模型卡片由Hugging Face团队撰写。
该模型使用了语言嵌入来指定推理时使用的语言。详见 Hugging Face Multilingual Models for Inference docs 以获取更多详细信息。