模型:

Davlan/xlm-roberta-base-finetuned-kinyarwanda

英文

Hugging Face的标志

语言:rw数据集:

xlm-roberta-base-finetuned-kinyarwanda

模型描述

xlm-roberta-base-finetuned-kinyarwanda是通过在基于Kinyarwanda语言文本上进行微调xlm-roberta-base模型而获得的基于Kinyarwanda RoBERTa的模型。它在命名实体识别数据集上提供了比XLM-RoBERTa更好的性能。

具体来说,该模型是在Kinyarwanda语料库上微调的xlm-roberta-base模型。

预期用途和限制

使用方法

您可以使用Transformers流水线与此模型进行掩码标记预测。

>>> from transformers import pipeline
>>> unmasker = pipeline('fill-mask', model='Davlan/xlm-roberta-base-finetuned-kinyarwanda')
>>> unmasker("Twabonye ko igihe mu <mask> hazaba hari ikirango abantu bakunze")


限制和偏见

该模型的训练数据集限于特定时间段的实体标注新闻文章。这可能不能很好地推广到不同领域的所有用例。

训练数据

该模型在JW300 + KIRNEWS + BBC Gahuza 上进行了微调。

训练过程

该模型在单个NVIDIA V100 GPU上进行了训练。

在测试集上的评估结果(F分数,5次运行的平均值)

Dataset XLM-R F1 rw_roberta F1
1233321 73.22 77.76

BibTeX条目和引用信息

作者:David Adelani