英文

用于问题生成的DistilT5模型

这是一个经过蒸馏的模型,用于问答和基于答案的问题生成任务。

该模型使用了Huggingface提出的No Teacher Distillation方法进行蒸馏,蒸馏自 t5-base-qa-qg-hl 模型。

我们只是从t5-base-qa-qg-hl模型中复制了交替的层,并在同样的数据上进行了微调。以下表格列出了其他蒸馏模型及其指标。

Name BLEU-4 METEOR ROUGE-L QA-EM QA-F1
1233321 18.4141 24.8417 40.3435 - -
1234321 18.6493 24.9685 40.5605 76.13 84.659
1235321 20.5275 26.5010 43.2676 - -
1236321 20.6109 26.4533 43.0895 81.61 89.831

你可以通过推理API使用该模型。以下是使用方法:

对于问题生成(QG)

生成问题:<hl> 42 <hl> 是生命、宇宙和一切的答案。

对于问题回答(QA)

问题:什么是42 上下文:42是生命、宇宙和一切的答案。

更多细节请参见 this 存储库。

模型运行中 ?

您需要克隆 repo

from pipelines import pipeline
nlp = pipeline("multitask-qa-qg", model="valhalla/distilt5-qa-qg-hl-12-6")

# to generate questions simply pass the text
nlp("42 is the answer to life, the universe and everything.")
=> [{'answer': '42', 'question': 'What is the answer to life, the universe and everything?'}]

# for qa pass a dict with "question" and "context"
nlp({
    "question": "What is 42 ?",
    "context": "42 is the answer to life, the universe and everything."
})
=> 'the answer to life, the universe and everything'