英文

Google's T5 对于封闭式问题回答。

该模型使用T5的去噪目标进行了预训练,并在 C4 上进一步使用了基于 REALM 的显著跨度屏蔽目标进行了预训练,最后在 Natural Questions (NQ) 上进行了微调。

注意:该模型在 Natural Questions (NQ) 的所有训练数据上进行了10k步的微调。

其他社区检查点: here

论文: How Much Knowledge Can You Pack Into the Parameters of a Language Model?

作者:Adam Roberts, Colin Raffel, Noam Shazeer

在自然问题测试集上的结果

Id link Exact Match
T5-small 1239321 25.5
T5-large 12310321 30.4
T5-xl 12311321 35.6
T5-xxl 12312321 37.9
T5-3b 12313321 33.2
T5-11b 12314321 36.6

用法

对于封闭式问题回答,可以按照以下方式使用该模型:

from transformers import AutoModelForSeq2SeqLM, AutoTokenizer

t5_qa_model = AutoModelForSeq2SeqLM.from_pretrained("google/t5-xl-ssm-nq")
t5_tok = AutoTokenizer.from_pretrained("google/t5-xl-ssm-nq")

input_ids = t5_tok("When was Franklin D. Roosevelt born?", return_tensors="pt").input_ids
gen_output = t5_qa_model.generate(input_ids)[0]

print(t5_tok.decode(gen_output, skip_special_tokens=True))

摘要

最近观察到,在未结构化文本上训练的神经语言模型可以使用自然语言查询隐式存储和检索知识。在这篇简短的论文中,我们通过微调预训练模型来评估这种方法的实际效用,以回答没有任何外部上下文或知识的问题。我们展示了这种方法在模型规模上的可扩展性,并在回答问题时与显式从外部知识源中检索答案的开放领域系统竞争。为了便于重现和未来的工作,我们在 https://goo.gle/t5-cbqa 上发布了我们的代码和训练模型。