模型:
GroNLP/bert-base-dutch-cased
Wietse de Vries • Andreas van Cranenburgh • Arianna Bisazza • Tommaso Caselli • Gertjan van Noord • Malvina Nissim
BERTje是由格罗宁根大学开发的荷兰语预训练BERT模型。
如需详细信息,请查看我们关于 arXiv 的论文,在 Github 上的代码以及相关工作。
论文和Github页面提到了可用的微调模型 here 。
from transformers import AutoTokenizer, AutoModel, TFAutoModel tokenizer = AutoTokenizer.from_pretrained("GroNLP/bert-base-dutch-cased") model = AutoModel.from_pretrained("GroNLP/bert-base-dutch-cased") # PyTorch model = TFAutoModel.from_pretrained("GroNLP/bert-base-dutch-cased") # Tensorflow
警告:BERTje的词汇量已于2021年更改。如果您使用旧的微调模型并遇到使用 GroNLP/bert-base-dutch-cased 分词器出现问题,可以使用以下分词器:
tokenizer = AutoTokenizer.from_pretrained("GroNLP/bert-base-dutch-cased", revision="v1") # v1 is the old vocabulary
arXiv论文中列出了基准测试结果。以下是在撰写论文后对BERTje、多语言BERT、BERT-NL和RobBERT进行的一些比较。与其他一些比较不同,在这些基准测试中,每个预训练模型的微调程序是相同的。通过优化微调程序,您可以为各个模型实现更高的分数。
当完成更多实验结果时,本页面将添加更多的实验结果。关于如何进行微调这些模型以及可下载的微调检查点的技术细节稍后将发布。
所有测试的模型都是基础型(12层),采用大小写分词。
下表中的表头链接到原始数据来源。分数链接到对应微调模型的页面。当更多简单的微调模型可用时,这些表将进行更新。
Model | 12313321 | 12314321 | spaCy UD LassySmall |
---|---|---|---|
BERTje | 12315321 | 12316321 | 12317321 |
12318321 | 12319321 | 12320321 | 12321321 |
12322321 | 85.05 | 80.45 | 81.62 |
12323321 | 84.72 | 81.98 | 79.84 |
Model | 12324321 |
---|---|
BERTje | 96.48 |
12318321 | 96.20 |
12322321 | 96.10 |
12323321 | 95.91 |
@misc{devries2019bertje, \ttitle = {{BERTje}: {A} {Dutch} {BERT} {Model}}, \tshorttitle = {{BERTje}}, \tauthor = {de Vries, Wietse and van Cranenburgh, Andreas and Bisazza, Arianna and Caselli, Tommaso and Noord, Gertjan van and Nissim, Malvina}, \tyear = {2019}, \tmonth = dec, \thowpublished = {arXiv:1912.09582}, \turl = {http://arxiv.org/abs/1912.09582}, }