模型:

Davlan/xlm-roberta-base-finetuned-igbo

英文

Hugging Face的徽标

语言:ig数据集:

xlm-roberta-base-finetuned-igbo

模型描述

xlm-roberta-base-finetuned-igbo是通过在Igbo语料库上微调xlm-roberta-base模型得到的Igbo RoBERTa模型。它在命名实体识别数据集上比XLM-RoBERTa提供了更好的性能。

具体而言,该模型是在Igbo语料库上微调的xlm-roberta-base模型。

预期用途和限制

如何使用:

您可以使用此模型与Transformers管道进行遮蔽标记预测。

>>> from transformers import pipeline
>>> unmasker = pipeline('fill-mask', model='Davlan/xlm-roberta-base-finetuned-igbo')
>>> unmasker("Reno Omokri na Gọọmentị <mask> enweghị ihe ha ga-eji hiwe ya bụ mmachi.")


限制和偏差:

该模型受其训练数据集的限制,该数据集由一段特定时间范围内的实体注释新闻文章组成。这可能不能很好地推广到不同领域的所有用例。

训练数据

该模型在JW300 + OPUS CC-Align + IGBO NLP Corpus + Igbo CC-100 上进行了微调。

训练过程

该模型在一台NVIDIA V100 GPU上进行训练

测试集上的评估结果(F-得分,平均5次运行)

Dataset XLM-R F1 ig_roberta F1
1233321 84.51 87.74

BibTeX条目和引文信息

作者:David Adelani