英文

lmqg/mt5-small-frquad-qg-ae模型卡片

此模型是通过 lmqg lmqg/qg_frquad (default数据集)上对 google/mt5-small 进行联合问题生成和答案提取的微调版本。

概述

用法

from lmqg import TransformersQG

# initialize model
model = TransformersQG(language="fr", model="lmqg/mt5-small-frquad-qg-ae")

# model prediction
question_answer_pairs = model.generate_qa("Créateur » (Maker), lui aussi au singulier, « le Suprême Berger » (The Great Shepherd) ; de l'autre, des réminiscences de la théologie de l'Antiquité : le tonnerre, voix de Jupiter, « Et souvent ta voix gronde en un tonnerre terrifiant », etc.")
  • 使用transformers
from transformers import pipeline

pipe = pipeline("text2text-generation", "lmqg/mt5-small-frquad-qg-ae")

# answer extraction
answer = pipe("generate question: Créateur » (Maker), lui aussi au singulier, « <hl> le Suprême Berger <hl> » (The Great Shepherd) ; de l'autre, des réminiscences de la théologie de l'Antiquité : le tonnerre, voix de Jupiter, « Et souvent ta voix gronde en un tonnerre terrifiant », etc.")

# question generation
question = pipe("extract answers: Pourtant, la strophe spensérienne, utilisée cinq fois avant que ne commence le chœur, constitue en soi un vecteur dont les répétitions structurelles, selon Ricks, relèvent du pur lyrisme tout en constituant une menace potentielle. Après les huit sages pentamètres iambiques, l'alexandrin final <hl> permet une pause <hl>, « véritable illusion d'optique » qu'accentuent les nombreuses expressions archaïsantes telles que did swoon, did seem, did go, did receive, did make, qui doublent le prétérit en un temps composé et paraissent à la fois « très précautionneuses et très peu pressées ».")

评估

Score Type Dataset
BERTScore 79.9 default 12313321
Bleu_1 27.6 default 12313321
Bleu_2 16.31 default 12313321
Bleu_3 11 default 12313321
Bleu_4 7.75 default 12313321
METEOR 17.62 default 12313321
MoverScore 56.44 default 12313321
ROUGE_L 28.06 default 12313321
Score Type Dataset
QAAlignedF1Score (BERTScore) 79.7 default 12313321
QAAlignedF1Score (MoverScore) 54.22 default 12313321
QAAlignedPrecision (BERTScore) 77.29 default 12313321
QAAlignedPrecision (MoverScore) 52.84 default 12313321
QAAlignedRecall (BERTScore) 82.36 default 12313321
QAAlignedRecall (MoverScore) 55.76 default 12313321
Score Type Dataset
AnswerExactMatch 46.96 default 12313321
AnswerF1Score 67.44 default 12313321
BERTScore 87.84 default 12313321
Bleu_1 40.67 default 12313321
Bleu_2 35.92 default 12313321
Bleu_3 32.1 default 12313321
Bleu_4 28.71 default 12313321
METEOR 37.9 default 12313321
MoverScore 76.45 default 12313321
ROUGE_L 43.93 default 12313321

训练超参数

在微调过程中使用了以下超参数:

  • dataset_path:lmqg/qg_frquad
  • dataset_name:default
  • input_types:['paragraph_answer','paragraph_sentence']
  • output_types:['question','answer']
  • prefix_types:['qg','ae']
  • model:google/mt5-small
  • max_length:512
  • max_length_output:32
  • epoch:18
  • batch:64
  • lr:0.0005
  • fp16:False
  • random_seed:1
  • gradient_accumulation_steps:1
  • label_smoothing:0.15

完整配置可以在 fine-tuning config file 找到。

引用

@inproceedings{ushio-etal-2022-generative,
    title = "{G}enerative {L}anguage {M}odels for {P}aragraph-{L}evel {Q}uestion {G}eneration",
    author = "Ushio, Asahi  and
        Alva-Manchego, Fernando  and
        Camacho-Collados, Jose",
    booktitle = "Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing",
    month = dec,
    year = "2022",
    address = "Abu Dhabi, U.A.E.",
    publisher = "Association for Computational Linguistics",
}