模型:

DeepPavlov/bert-base-multilingual-cased-sentence

英文

bert-base-multilingual-cased-sentence

Sentence Multilingual BERT(101 种语言,大小写敏感,12 层,768 隐藏层,12 个注意头部,180M 参数)是 Multilingual BERT 的基于表征的句子编码器,可用于 101 种语言。它使用 Multilingual BERT 进行初始化,并在英语 MultiNLI[1] 和多语言 XNLI[2] 的开发集上进行微调。与 Sentence-BERT[3] 类似,句子的表示是通过对令牌嵌入进行均值池化得到的。

[1]: Williams A., Nangia N. & Bowman S.(2017)A Broad-Coverage Challenge Corpus for Sentence Understanding through Inference. arXiv preprint arXiv:1704.05426

[2]: Williams A., Bowman S.(2018)XNLI: Evaluating Cross-lingual Sentence Representations. arXiv preprint arXiv:1809.05053

[3]: N. Reimers, I. Gurevych(2019)Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks. arXiv preprint arXiv:1908.10084