英文

概述

语言模型:gelectra-base-germanquad 语言:德语 训练数据:GermanQuAD训练集(约12MB) 评估数据:GermanQuAD测试集(约5MB) 基础设施:1x V100 GPU 发布日期:2021年4月21日

详情

  • 我们使用gelectra-base模型作为基础,训练了一个德语问答模型。
  • 数据集是GermanQuAD,这是一个新的德语语言数据集,我们进行了手工注释和发布 online
  • 训练数据集是单向注释的,包含11518个问题和11518个答案,测试数据集是三向注释的,因此有2204个问题和2204·3−76 = 6536个答案,因为我们删除了76个错误答案。

更多详情和数据集以SQuAD格式下载,请参阅 https://deepset.ai/germanquad

超参数

batch_size = 24
n_epochs = 2
max_seq_len = 384
learning_rate = 3e-5
lr_schedule = LinearWarmup
embeds_dropout_prob = 0.1

性能

我们对GermanQuAD测试集进行了抽取式问答性能评估。模型类型和训练数据包含在模型名称中。对于XLM-Roberta的微调,我们使用了英文SQuAD v2.0数据集。GELECTRA模型在德语版SQuAD v1.1上进行了预热训练,并在 GermanQuAD 上进行了微调。基准人类模型是使用三向测试集,将一个答案作为预测结果,其他两个答案作为参考答案。

作者

Timo Möller:timo.moeller@deepset.ai Julian Risch:julian.risch@deepset.ai Malte Pietsch:malte.pietsch@deepset.ai

关于我们

deepset 是一家开源NLP框架Haystack背后的公司,该框架旨在帮助您构建用于生产的NLP系统,包括:问答、摘要、排序等。

我们的其他工作:

与我们联系,加入Haystack社区

欲了解有关Haystack的更多信息,请访问我们的 GitHub 存储库和 Documentation

我们还有一个 Discord community open to everyone!

Twitter | LinkedIn | Discord | GitHub Discussions | Website

随便说一句: we're hiring!