模型:
Davlan/xlm-roberta-base-finetuned-amharic
语言:am 数据集:
xlm-roberta-base-finetuned-amharic 是通过在阿姆哈拉语文本上对 xlm-roberta-base 模型进行微调而获得的阿姆哈拉语 RoBERTa 模型。其在命名实体识别数据集上提供了比 XLM-RoBERTa 更好的性能。
具体来说,该模型是在阿姆哈拉语语料库上微调的 xlm-roberta-base 模型。
如何使用:
您可以使用 Transformers 管道对该模型进行掩码标记预测。
>>> from transformers import pipeline >>> unmasker = pipeline('fill-mask', model='Davlan/xlm-roberta-base-finetuned-hausa') >>> unmasker("የአሜሪካ የአፍሪካ ቀንድ ልዩ መልዕክተኛ ጄፈሪ ፌልትማን በአራት አገራት የሚያደጉትን <mask> መጀመራቸውን የአሜሪካ የውጪ ጉዳይ ሚንስቴር አስታወቀ።")限制和偏见:
该模型的训练数据集仅限于特定时间范围内的实体标注新闻文章。这可能无法很好地推广到不同领域的所有用例。
该模型在 Amharic CC-100 上进行了微调。
该模型是在一台NVIDIA V100 GPU上训练的。
Dataset | XLM-R F1 | am_roberta F1 |
---|---|---|
1232321 | 70.96 | 77.97 |
By David Adelani