模型:
Davlan/xlm-roberta-base-finetuned-kinyarwanda
语言:rw数据集:
xlm-roberta-base-finetuned-kinyarwanda是通过在基于Kinyarwanda语言文本上进行微调xlm-roberta-base模型而获得的基于Kinyarwanda RoBERTa的模型。它在命名实体识别数据集上提供了比XLM-RoBERTa更好的性能。
具体来说,该模型是在Kinyarwanda语料库上微调的xlm-roberta-base模型。
您可以使用Transformers流水线与此模型进行掩码标记预测。
>>> from transformers import pipeline >>> unmasker = pipeline('fill-mask', model='Davlan/xlm-roberta-base-finetuned-kinyarwanda') >>> unmasker("Twabonye ko igihe mu <mask> hazaba hari ikirango abantu bakunze")限制和偏见
该模型的训练数据集限于特定时间段的实体标注新闻文章。这可能不能很好地推广到不同领域的所有用例。
该模型在JW300 + KIRNEWS + BBC Gahuza 上进行了微调。
该模型在单个NVIDIA V100 GPU上进行了训练。
Dataset | XLM-R F1 | rw_roberta F1 |
---|---|---|
1233321 | 73.22 | 77.76 |
作者:David Adelani