模型:

AlexKay/xlm-roberta-large-qa-multilingual-finedtuned-ru

英文

XLM-RoBERTa大型模型在SQuAD上进行整词屏蔽微调

使用掩码语言建模(MLM)目标的预训练模型。在英文和俄文问答数据集上进行了微调

使用的问答数据集

SQuAD + SberQuAD

SberQuAD original paper 在这里!推荐阅读!

评估结果

获得的结果如下(SberQUaD):

f1 = 84.3
exact_match = 65.3