英文

Google's T5 对于封闭式问题回答。

该模型使用T5的去噪目标进行预训练,然后使用 C4 的显著跨度掩码目标进行额外的预训练,最后在 Natural Questions (NQ) 上进行微调。

注意:该模型在 Natural Questions (NQ) 的所有训练拆分中进行了10k步的微调。

其他社区检查点: here

论文: How Much Knowledge Can You Pack Into the Parameters of a Language Model?

作者:Adam Roberts,Colin Raffel,Noam Shazeer

在自然问题-测试集上的结果

Id link Exact Match
T5-small 1239321 25.5
T5-large 12310321 30.4
T5-xl 12311321 35.6
T5-xxl 12312321 37.9
T5-3b 12313321 33.2
T5-11b 12314321 36.6

用法

可以按照以下方式使用该模型进行封闭式问题回答:

from transformers import AutoModelForSeq2SeqLM, AutoTokenizer

t5_qa_model = AutoModelForSeq2SeqLM.from_pretrained("google/t5-3b-ssm-nq")
t5_tok = AutoTokenizer.from_pretrained("google/t5-3b-ssm-nq")

input_ids = t5_tok("When was Franklin D. Roosevelt born?", return_tensors="pt").input_ids
gen_output = t5_qa_model.generate(input_ids)[0]

print(t5_tok.decode(gen_output, skip_special_tokens=True))

摘要

最近观察到,基于非结构化文本训练的神经语言模型可以通过自然语言查询隐式存储和检索知识。在这篇简短的论文中,我们通过对预训练模型进行微调,以回答没有外部上下文或知识访问的问题,来衡量这种方法的实际效用。我们展示了这种方法随模型大小的扩展,并在回答问题时与显式从外部知识源中检索答案的开放域系统竞争。为了便于复现和未来的工作,我们在 https://goo.gle/t5-cbqa 上发布了我们的代码和训练模型。