英文

lmqg/mt5-small-itquad-qg-ae的 Model Card

这个模型是 lmqg/qg_itquad 数据集上用 lmqg 进行联合调优的 google/mt5-small 的版本,用于生成问题和提取答案。

概览

使用方法

from lmqg import TransformersQG

# initialize model
model = TransformersQG(language="it", model="lmqg/mt5-small-itquad-qg-ae")

# model prediction
question_answer_pairs = model.generate_qa("Dopo il 1971 , l' OPEC ha tardato ad adeguare i prezzi per riflettere tale deprezzamento.")
  • 使用 transformers
from transformers import pipeline

pipe = pipeline("text2text-generation", "lmqg/mt5-small-itquad-qg-ae")

# answer extraction
answer = pipe("generate question: <hl> Dopo il 1971 <hl> , l' OPEC ha tardato ad adeguare i prezzi per riflettere tale deprezzamento.")

# question generation
question = pipe("extract answers: <hl> Il 6 ottobre 1973 , la Siria e l' Egitto, con il sostegno di altre nazioni arabe, lanciarono un attacco a sorpresa su Israele, su Yom Kippur. <hl> Questo rinnovo delle ostilità nel conflitto arabo-israeliano ha liberato la pressione economica sottostante sui prezzi del petrolio. All' epoca, l' Iran era il secondo esportatore mondiale di petrolio e un vicino alleato degli Stati Uniti. Settimane più tardi, lo scià d' Iran ha detto in un' intervista: Naturalmente[il prezzo del petrolio] sta andando a salire Certamente! E come! Avete[Paesi occidentali] aumentato il prezzo del grano che ci vendete del 300 per cento, e lo stesso per zucchero e cemento.")

评估

Score Type Dataset
BERTScore 80.61 default 12313321
Bleu_1 22.53 default 12313321
Bleu_2 14.75 default 12313321
Bleu_3 10.19 default 12313321
Bleu_4 7.25 default 12313321
METEOR 17.5 default 12313321
MoverScore 56.63 default 12313321
ROUGE_L 21.84 default 12313321
Score Type Dataset
QAAlignedF1Score (BERTScore) 81.81 default 12313321
QAAlignedF1Score (MoverScore) 56.02 default 12313321
QAAlignedPrecision (BERTScore) 81.17 default 12313321
QAAlignedPrecision (MoverScore) 55.76 default 12313321
QAAlignedRecall (BERTScore) 82.51 default 12313321
QAAlignedRecall (MoverScore) 56.32 default 12313321
Score Type Dataset
AnswerExactMatch 57.85 default 12313321
AnswerF1Score 72.09 default 12313321
BERTScore 90.24 default 12313321
Bleu_1 39.33 default 12313321
Bleu_2 33.64 default 12313321
Bleu_3 29.59 default 12313321
Bleu_4 26.01 default 12313321
METEOR 42.68 default 12313321
MoverScore 81.17 default 12313321
ROUGE_L 45.15 default 12313321

训练超参数

在微调过程中使用了以下超参数:

  • 数据集路径:lmqg/qg_itquad
  • 数据集名称:default
  • 输入类型:['paragraph_answer', 'paragraph_sentence']
  • 输出类型:['question', 'answer']
  • 前缀类型:['qg', 'ae']
  • 模型:google/mt5-small
  • 最大长度:512
  • 最大输出长度:32
  • 训练轮数:13
  • 批次大小:16
  • 学习率:0.001
  • fp16:False
  • 随机种子:1
  • 梯度累积步数:4
  • 标签平滑:0.15

可以在 fine-tuning config file 找到完整的配置信息。

引用

@inproceedings{ushio-etal-2022-generative,
    title = "{G}enerative {L}anguage {M}odels for {P}aragraph-{L}evel {Q}uestion {G}eneration",
    author = "Ushio, Asahi  and
        Alva-Manchego, Fernando  and
        Camacho-Collados, Jose",
    booktitle = "Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing",
    month = dec,
    year = "2022",
    address = "Abu Dhabi, U.A.E.",
    publisher = "Association for Computational Linguistics",
}