模型:
google/t5-11b-ssm-nq
Google's T5 用于闭书式问答的模型。
该模型首先使用T5的数据去噪目标进行预训练,然后使用 REALM 的显著性跨度屏蔽目标进行额外的预训练,最后在 Natural Questions (NQ) 上进行微调。
注意:该模型在 Natural Questions (NQ) 的所有训练集上进行了10k步的微调。
其他社区检查点: here
论文: How Much Knowledge Can You Pack Into the Parameters of a Language Model?
作者:Adam Roberts,Colin Raffel,Noam Shazeer
Id | link | Exact Match |
---|---|---|
T5-small | 1239321 | 25.5 |
T5-large | 12310321 | 30.4 |
T5-xl | 12311321 | 35.6 |
T5-xxl | 12312321 | 37.9 |
T5-3b | 12313321 | 33.2 |
T5-11b | 12314321 | 36.6 |
以下是使用闭书式问答的模型的方法:
from transformers import AutoModelForSeq2SeqLM, AutoTokenizer t5_qa_model = AutoModelForSeq2SeqLM.from_pretrained("google/t5-11b-ssm-nq") t5_tok = AutoTokenizer.from_pretrained("google/t5-11b-ssm-nq") input_ids = t5_tok("When was Franklin D. Roosevelt born?", return_tensors="pt").input_ids gen_output = t5_qa_model.generate(input_ids)[0] print(t5_tok.decode(gen_output, skip_special_tokens=True))
最近观察到,基于无结构文本训练的神经语言模型可以使用自然语言查询隐式存储和检索知识。在这篇短文中,我们通过对预训练模型进行微调来衡量这种方法的实际效用,以在没有任何外部上下文或知识的情况下回答问题。我们展示了这种方法与明确从外部知识来源检索答案的开放领域系统相比,在模型规模上具有可扩展性并具有竞争力的表现。为了促进可重复性和未来的工作,我们在 https://goo.gle/t5-cbqa 上发布了我们的代码和经过训练的模型。