英文

lmqg/mt5-small-ruquad-qg-ae模型说明卡

该模型是 google/mt5-small 的微调版本,通过 lmqg lmqg/qg_ruquad (数据集名称:default)上同时进行问题生成和答案抽取。

概述

用法

from lmqg import TransformersQG

# initialize model
model = TransformersQG(language="ru", model="lmqg/mt5-small-ruquad-qg-ae")

# model prediction
question_answer_pairs = model.generate_qa("Нелишним будет отметить, что, развивая это направление, Д. И. Менделеев, поначалу априорно выдвинув идею о температуре, при которой высота мениска будет нулевой, в мае 1860 года провёл серию опытов.")
  • 使用transformers
from transformers import pipeline

pipe = pipeline("text2text-generation", "lmqg/mt5-small-ruquad-qg-ae")

# answer extraction
answer = pipe("generate question: Нелишним будет отметить, что, развивая это направление, Д. И. Менделеев, поначалу априорно выдвинув идею о температуре, при которой высота мениска будет нулевой, <hl> в мае 1860 года <hl> провёл серию опытов.")

# question generation
question = pipe("extract answers: <hl> в английском языке в нарицательном смысле применяется термин rapid transit (скоростной городской транспорт), однако употребляется он только тогда, когда по смыслу невозможно ограничиться названием одной конкретной системы метрополитена. <hl> в остальных случаях используются индивидуальные названия: в лондоне — london underground, в нью-йорке — new york subway, в ливерпуле — merseyrail, в вашингтоне — washington metrorail, в сан-франциско — bart и т. п. в некоторых городах применяется название метро (англ. metro) для систем, по своему характеру близких к метро, или для всего городского транспорта (собственно метро и наземный пассажирский транспорт (в том числе автобусы и трамваи)) в совокупности.")

评估

Score Type Dataset
BERTScore 86.29 default 12313321
Bleu_1 34.11 default 12313321
Bleu_2 27.17 default 12313321
Bleu_3 22.06 default 12313321
Bleu_4 18.06 default 12313321
METEOR 28.92 default 12313321
MoverScore 65.02 default 12313321
ROUGE_L 33.78 default 12313321
Score Type Dataset
QAAlignedF1Score (BERTScore) 79.74 default 12313321
QAAlignedF1Score (MoverScore) 56.69 default 12313321
QAAlignedPrecision (BERTScore) 76.15 default 12313321
QAAlignedPrecision (MoverScore) 54.11 default 12313321
QAAlignedRecall (BERTScore) 83.83 default 12313321
QAAlignedRecall (MoverScore) 59.79 default 12313321
Score Type Dataset
AnswerExactMatch 41.44 default 12313321
AnswerF1Score 62.67 default 12313321
BERTScore 85.69 default 12313321
Bleu_1 44.37 default 12313321
Bleu_2 39.42 default 12313321
Bleu_3 34.82 default 12313321
Bleu_4 30.21 default 12313321
METEOR 37.87 default 12313321
MoverScore 73.38 default 12313321
ROUGE_L 48.66 default 12313321

训练超参数

在微调过程中使用了以下超参数:

  • 数据集路径: lmqg/qg_ruquad
  • 数据集名称: default
  • 输入类型: ['paragraph_answer', 'paragraph_sentence']
  • 输出类型: ['question', 'answer']
  • 前缀类型: ['qg', 'ae']
  • 模型: google/mt5-small
  • 最大长度: 512
  • 输出最大长度: 32
  • 训练轮数: 17
  • 批次大小: 16
  • 学习率: 0.001
  • 混合精度训练: False
  • 随机种子: 1
  • 梯度累积步数: 4
  • 标签平滑: 0.15

完整配置请参阅 fine-tuning config file

引用

@inproceedings{ushio-etal-2022-generative,
    title = "{G}enerative {L}anguage {M}odels for {P}aragraph-{L}evel {Q}uestion {G}eneration",
    author = "Ushio, Asahi  and
        Alva-Manchego, Fernando  and
        Camacho-Collados, Jose",
    booktitle = "Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing",
    month = dec,
    year = "2022",
    address = "Abu Dhabi, U.A.E.",
    publisher = "Association for Computational Linguistics",
}