这是一个经过蒸馏的模型,用于问答和基于答案的问题生成任务。
该模型使用了Huggingface提出的No Teacher Distillation方法进行蒸馏,蒸馏自 t5-base-qa-qg-hl 模型。
我们只是从t5-base-qa-qg-hl模型中复制了交替的层,并在同样的数据上进行了微调。以下表格列出了其他蒸馏模型及其指标。
Name | BLEU-4 | METEOR | ROUGE-L | QA-EM | QA-F1 |
---|---|---|---|---|---|
1233321 | 18.4141 | 24.8417 | 40.3435 | - | - |
1234321 | 18.6493 | 24.9685 | 40.5605 | 76.13 | 84.659 |
1235321 | 20.5275 | 26.5010 | 43.2676 | - | - |
1236321 | 20.6109 | 26.4533 | 43.0895 | 81.61 | 89.831 |
你可以通过推理API使用该模型。以下是使用方法:
对于问题生成(QG)
生成问题:<hl> 42 <hl> 是生命、宇宙和一切的答案。
对于问题回答(QA)
问题:什么是42 上下文:42是生命、宇宙和一切的答案。
更多细节请参见 this 存储库。
您需要克隆 repo 。
from pipelines import pipeline nlp = pipeline("multitask-qa-qg", model="valhalla/distilt5-qa-qg-hl-12-6") # to generate questions simply pass the text nlp("42 is the answer to life, the universe and everything.") => [{'answer': '42', 'question': 'What is the answer to life, the universe and everything?'}] # for qa pass a dict with "question" and "context" nlp({ "question": "What is 42 ?", "context": "42 is the answer to life, the universe and everything." }) => 'the answer to life, the universe and everything'