模型:
Davlan/xlm-roberta-base-finetuned-swahili
语言:sw 数据集:
xlm-roberta-base-finetuned-swahili是通过在斯瓦希里语文本上对xlm-roberta-base模型进行微调而得到的斯瓦希里语RoBERTa模型。在文本分类和命名实体识别数据集上,它的性能比XLM-RoBERTa更好。
具体而言,该模型是在斯瓦希里语语料库上对xlm-roberta-base模型进行微调的。
您可以使用此模型与Transformers管道进行掩码标记预测。
>>> from transformers import pipeline >>> unmasker = pipeline('fill-mask', model='Davlan/xlm-roberta-base-finetuned-swahili') >>> unmasker("Jumatatu, Bwana Kagame alielezea shirika la France24 huko <mask> kwamba hakuna uhalifu ulitendwa") [{'sequence': 'Jumatatu, Bwana Kagame alielezea shirika la France24 huko Ufaransa kwamba hakuna uhalifu ulitendwa', 'score': 0.5077782273292542, 'token': 190096, 'token_str': 'Ufaransa'}, {'sequence': 'Jumatatu, Bwana Kagame alielezea shirika la France24 huko Paris kwamba hakuna uhalifu ulitendwa', 'score': 0.3657738268375397, 'token': 7270, 'token_str': 'Paris'}, {'sequence': 'Jumatatu, Bwana Kagame alielezea shirika la France24 huko Gabon kwamba hakuna uhalifu ulitendwa', 'score': 0.01592041552066803, 'token': 176392, 'token_str': 'Gabon'}, {'sequence': 'Jumatatu, Bwana Kagame alielezea shirika la France24 huko France kwamba hakuna uhalifu ulitendwa', 'score': 0.010881908237934113, 'token': 9942, 'token_str': 'France'}, {'sequence': 'Jumatatu, Bwana Kagame alielezea shirika la France24 huko Marseille kwamba hakuna uhalifu ulitendwa', 'score': 0.009554869495332241, 'token': 185918, 'token_str': 'Marseille'}]限制和偏见
该模型受限于其训练数据集,该数据集为特定时间段的实体标注新闻文章。这可能无法很好地推广到不同领域的所有用例。
该模型是基于 Swahili CC-100 进行微调的
该模型是在一块NVIDIA V100 GPU上训练的。
Dataset | XLM-R F1 | sw_roberta F1 |
---|---|---|
1232321 | 87.55 | 89.46 |
作者:David Adelani