英文

lmqg/mt5-base-jaquad-qag 模型卡片

这个模型是基于 google/mt5-base 用于 lmqg/qag_jaquad (数据集名称:default)上的问答对生成任务进行微调的版本,通过 lmqg 进行微调。

概述

用法

from lmqg import TransformersQG

# initialize model
model = TransformersQG(language="ja", model="lmqg/mt5-base-jaquad-qag")

# model prediction
question_answer_pairs = model.generate_qa("フェルメールの作品では、17世紀のオランダの画家、ヨハネス・フェルメールの作品について記述する。フェルメールの作品は、疑問作も含め30数点しか現存しない。現存作品はすべて油彩画で、版画、下絵、素描などは残っていない。")
  • 使用transformers
from transformers import pipeline

pipe = pipeline("text2text-generation", "lmqg/mt5-base-jaquad-qag")
output = pipe("ゾフィーは貴族出身ではあったが王族出身ではなく、ハプスブルク家の皇位継承者であるフランツ・フェルディナントとの結婚は貴賤結婚となった。皇帝フランツ・ヨーゼフは、2人の間に生まれた子孫が皇位を継がないことを条件として結婚を承認していた。視察が予定されている6月28日は2人の14回目の結婚記念日であった。")

评估

Score Type Dataset
QAAlignedF1Score (BERTScore) 74.52 default 12313321
QAAlignedF1Score (MoverScore) 52.08 default 12313321
QAAlignedPrecision (BERTScore) 74.36 default 12313321
QAAlignedPrecision (MoverScore) 52.01 default 12313321
QAAlignedRecall (BERTScore) 74.71 default 12313321
QAAlignedRecall (MoverScore) 52.16 default 12313321

训练超参数

在微调过程中使用了以下超参数:

  • 数据集路径:lmqg/qag_jaquad
  • 数据集名称:default
  • 输入类型:['paragraph']
  • 输出类型:['questions_answers']
  • 前缀类型:None
  • 模型:google/mt5-base
  • 最大长度:512
  • 输出最大长度:256
  • epoch:18
  • 批次大小:8
  • lr:0.001
  • fp16:False
  • 随机种子:1
  • 梯度累积步数:8
  • 标签平滑:0.0

可在 fine-tuning config file 找到完整的配置信息。

引用

@inproceedings{ushio-etal-2022-generative,
    title = "{G}enerative {L}anguage {M}odels for {P}aragraph-{L}evel {Q}uestion {G}eneration",
    author = "Ushio, Asahi  and
        Alva-Manchego, Fernando  and
        Camacho-Collados, Jose",
    booktitle = "Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing",
    month = dec,
    year = "2022",
    address = "Abu Dhabi, U.A.E.",
    publisher = "Association for Computational Linguistics",
}