英文

德语ELECTRA基础模型

于2020年10月发布,这是由原始德语BERT(也称为“bert-base-german-cased”)和dbmdz BERT(也称为bert-base-german-dbmdz-cased)的制造商共同合作训练的德语ELECTRA语言模型。在我们的 paper 中,我们概述了训练该模型的步骤。我们的评估表明,该模型训练不够充分。对于基础大小的模型,我们建议使用deepset/gbert-base以达到最佳性能。

概述

论文: here 架构:ELECTRA基础模型(判别器) 语言:德语

性能

GermEval18 Coarse: 76.02
GermEval18 Fine:   42.22
GermEval14:        86.02

另请参阅:deepset/gbert-basedeepset/gbert-largedeepset/gelectra-basedeepset/gelectra-largedeepset/gelectra-base-generatordeepset/gelectra-large-generator

作者

Branden Chan: branden.chan [at] deepset.ai Stefan Schweter: stefan [at] schweter.eu Timo Möller: timo.moeller [at] deepset.ai

关于我们

我们通过开源方式将NLP技术带给工业界! 我们专注于行业特定的语言模型和大规模问答系统。

我们的一些工作:

联系我们: Twitter | LinkedIn | Slack | GitHub Discussions | Website

顺便说一下: we're hiring!