模型:
deepset/gelectra-base
于2020年10月发布,这是由原始德语BERT(也称为“bert-base-german-cased”)和dbmdz BERT(也称为bert-base-german-dbmdz-cased)的制造商共同合作训练的德语ELECTRA语言模型。在我们的 paper 中,我们概述了训练该模型的步骤。我们的评估表明,该模型训练不够充分。对于基础大小的模型,我们建议使用deepset/gbert-base以达到最佳性能。
论文: here 架构:ELECTRA基础模型(判别器) 语言:德语
GermEval18 Coarse: 76.02 GermEval18 Fine: 42.22 GermEval14: 86.02
另请参阅:deepset/gbert-basedeepset/gbert-largedeepset/gelectra-basedeepset/gelectra-largedeepset/gelectra-base-generatordeepset/gelectra-large-generator
Branden Chan: branden.chan [at] deepset.ai Stefan Schweter: stefan [at] schweter.eu Timo Möller: timo.moeller [at] deepset.ai
我们通过开源方式将NLP技术带给工业界! 我们专注于行业特定的语言模型和大规模问答系统。
我们的一些工作:
联系我们: Twitter | LinkedIn | Slack | GitHub Discussions | Website
顺便说一下: we're hiring!