语言模型:gelectra-base-germanquad 语言:德语 训练数据:GermanQuAD训练集(约12MB) 评估数据:GermanQuAD测试集(约5MB) 基础设施:1x V100 GPU 发布日期:2021年4月21日
更多详情和数据集以SQuAD格式下载,请参阅 https://deepset.ai/germanquad 。
batch_size = 24 n_epochs = 2 max_seq_len = 384 learning_rate = 3e-5 lr_schedule = LinearWarmup embeds_dropout_prob = 0.1
我们对GermanQuAD测试集进行了抽取式问答性能评估。模型类型和训练数据包含在模型名称中。对于XLM-Roberta的微调,我们使用了英文SQuAD v2.0数据集。GELECTRA模型在德语版SQuAD v1.1上进行了预热训练,并在 GermanQuAD 上进行了微调。基准人类模型是使用三向测试集,将一个答案作为预测结果,其他两个答案作为参考答案。
Timo Möller:timo.moeller@deepset.ai Julian Risch:julian.risch@deepset.ai Malte Pietsch:malte.pietsch@deepset.ai
deepset 是一家开源NLP框架Haystack背后的公司,该框架旨在帮助您构建用于生产的NLP系统,包括:问答、摘要、排序等。
我们的其他工作:
欲了解有关Haystack的更多信息,请访问我们的 GitHub 存储库和 Documentation 。
我们还有一个 Discord community open to everyone!
Twitter | LinkedIn | Discord | GitHub Discussions | Website
随便说一句: we're hiring!