模型:
Davlan/xlm-roberta-base-finetuned-igbo
语言:ig数据集:
xlm-roberta-base-finetuned-igbo是通过在Igbo语料库上微调xlm-roberta-base模型得到的Igbo RoBERTa模型。它在命名实体识别数据集上比XLM-RoBERTa提供了更好的性能。
具体而言,该模型是在Igbo语料库上微调的xlm-roberta-base模型。
您可以使用此模型与Transformers管道进行遮蔽标记预测。
>>> from transformers import pipeline >>> unmasker = pipeline('fill-mask', model='Davlan/xlm-roberta-base-finetuned-igbo') >>> unmasker("Reno Omokri na Gọọmentị <mask> enweghị ihe ha ga-eji hiwe ya bụ mmachi.")限制和偏差:
该模型受其训练数据集的限制,该数据集由一段特定时间范围内的实体注释新闻文章组成。这可能不能很好地推广到不同领域的所有用例。
该模型在JW300 + OPUS CC-Align + IGBO NLP Corpus + Igbo CC-100 上进行了微调。
该模型在一台NVIDIA V100 GPU上进行训练
Dataset | XLM-R F1 | ig_roberta F1 |
---|---|---|
1233321 | 84.51 | 87.74 |
作者:David Adelani