英文

lmqg/mt5-small-ruquad-qg 的模型卡片

该模型是通过 lmqg lmqg/qg_ruquad 上的问题生成任务进行微调的 google/mt5-small 的版本(数据集名称:default)。

概述

用法

from lmqg import TransformersQG

# initialize model
model = TransformersQG(language="ru", model="lmqg/mt5-small-ruquad-qg")

# model prediction
questions = model.generate_q(list_context="Нелишним будет отметить, что, развивая это направление, Д. И. Менделеев, поначалу априорно выдвинув идею о температуре, при которой высота мениска будет нулевой, в мае 1860 года провёл серию опытов.", list_answer="в мае 1860 года")
  • 使用 transformers
from transformers import pipeline

pipe = pipeline("text2text-generation", "lmqg/mt5-small-ruquad-qg")
output = pipe("Нелишним будет отметить, что, развивая это направление, Д. И. Менделеев, поначалу априорно выдвинув идею о температуре, при которой высота мениска будет нулевой, <hl> в мае 1860 года <hl> провёл серию опытов.")

评估

Score Type Dataset
BERTScore 84.27 default 12313321
Bleu_1 31.03 default 12313321
Bleu_2 24.58 default 12313321
Bleu_3 19.92 default 12313321
Bleu_4 16.31 default 12313321
METEOR 26.39 default 12313321
MoverScore 62.49 default 12313321
ROUGE_L 31.39 default 12313321
  • 指标(问题和答案生成,参考答案):每个问题都是从黄金答案生成的 raw metric file
Score Type Dataset
QAAlignedF1Score (BERTScore) 90.17 default 12313321
QAAlignedF1Score (MoverScore) 68.22 default 12313321
QAAlignedPrecision (BERTScore) 90.17 default 12313321
QAAlignedPrecision (MoverScore) 68.23 default 12313321
QAAlignedRecall (BERTScore) 90.16 default 12313321
QAAlignedRecall (MoverScore) 68.21 default 12313321
Score Type Dataset
QAAlignedF1Score (BERTScore) 76.96 default 12313321
QAAlignedF1Score (MoverScore) 55.53 default 12313321
QAAlignedPrecision (BERTScore) 73.41 default 12313321
QAAlignedPrecision (MoverScore) 53.24 default 12313321
QAAlignedRecall (BERTScore) 81.05 default 12313321
QAAlignedRecall (MoverScore) 58.25 default 12313321

训练超参数

在微调期间使用了以下超参数:

  • 数据集路径:lmqg/qg_ruquad
  • 数据集名称:default
  • 输入类型:['paragraph_answer']
  • 输出类型:['question']
  • 前缀类型:无
  • 模型:google/mt5-small
  • 最大长度:512
  • 输出最大长度:32
  • 迭代轮数:5
  • 批次大小:64
  • 学习率:0.001
  • fp16:False
  • 随机种子:1
  • 渐变积累步骤:1
  • 标签平滑:0.15

完整的配置可以在 fine-tuning config file 找到。

引用

@inproceedings{ushio-etal-2022-generative,
    title = "{G}enerative {L}anguage {M}odels for {P}aragraph-{L}evel {Q}uestion {G}eneration",
    author = "Ushio, Asahi  and
        Alva-Manchego, Fernando  and
        Camacho-Collados, Jose",
    booktitle = "Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing",
    month = dec,
    year = "2022",
    address = "Abu Dhabi, U.A.E.",
    publisher = "Association for Computational Linguistics",
}