英文

lmqg/mt5-base-ruquad-qag模型卡

该模型是对 google/mt5-base 的问题和答案生成任务在 lmqg/qag_ruquad (数据集名称:default)上进行微调的版本,通过 lmqg 进行微调。

概述

用法

from lmqg import TransformersQG

# initialize model
model = TransformersQG(language="ru", model="lmqg/mt5-base-ruquad-qag")

# model prediction
question_answer_pairs = model.generate_qa("Нелишним будет отметить, что, развивая это направление, Д. И. Менделеев, поначалу априорно выдвинув идею о температуре, при которой высота мениска будет нулевой, в мае 1860 года провёл серию опытов.")
  • 使用transformers
from transformers import pipeline

pipe = pipeline("text2text-generation", "lmqg/mt5-base-ruquad-qag")
output = pipe("Нелишним будет отметить, что, развивая это направление, Д. И. Менделеев, поначалу априорно выдвинув идею о температуре, при которой высота мениска будет нулевой, в мае 1860 года провёл серию опытов.")

评估

Score Type Dataset
QAAlignedF1Score (BERTScore) 74.63 default 12313321
QAAlignedF1Score (MoverScore) 54.24 default 12313321
QAAlignedPrecision (BERTScore) 73.97 default 12313321
QAAlignedPrecision (MoverScore) 53.91 default 12313321
QAAlignedRecall (BERTScore) 75.38 default 12313321
QAAlignedRecall (MoverScore) 54.65 default 12313321

训练超参数

在微调过程中使用了以下超参数:

  • 数据集路径:lmqg/qag_ruquad
  • 数据集名称:default
  • 输入类型:['paragraph']
  • 输出类型:['questions_an..swers']
  • 前缀类型:None
  • 模型:google/mt5-base
  • 最大长度:512
  • 输出最大长度:256
  • epoch:12
  • batch:2
  • 学习率:0.0005
  • fp16:False
  • 随机种子:1
  • 梯度积累步数:32
  • 标签平滑:0.0

完整的配置可在 fine-tuning config file 中找到。

引用

@inproceedings{ushio-etal-2022-generative,
    title = "{G}enerative {L}anguage {M}odels for {P}aragraph-{L}evel {Q}uestion {G}eneration",
    author = "Ushio, Asahi  and
        Alva-Manchego, Fernando  and
        Camacho-Collados, Jose",
    booktitle = "Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing",
    month = dec,
    year = "2022",
    address = "Abu Dhabi, U.A.E.",
    publisher = "Association for Computational Linguistics",
}