英文

RoBERTa 法语基础模型(未大小写)

先决条件

transformers==4.19.2

模型架构

该模型使用了 RoBERTa 基本设置,除了词汇表大小。

分词器

使用 BPE 分词器,词汇表大小为 50,000。

训练数据

用法

from transformers import pipeline

unmasker = pipeline('fill-mask', model='ClassCat/roberta-base-french')
unmasker("Je vais à la <mask>.")