英文

lmqg/mbart-large-cc25-koquad-qag 的模型卡片

这个模型是在 lmqg/qag_koquad 上通过 lmqg 进行问题和答案生成任务的 facebook/mbart-large-cc25 的微调版本 (数据集名称: default)。

概览

用法

from lmqg import TransformersQG

# initialize model
model = TransformersQG(language="ko", model="lmqg/mbart-large-cc25-koquad-qag")

# model prediction
question_answer_pairs = model.generate_qa("1990년 영화 《 남부군 》에서 단역으로 영화배우 첫 데뷔에 이어 같은 해 KBS 드라마 《지구인》에서 단역으로 출연하였고 이듬해 MBC 《여명의 눈동자》를 통해 단역으로 출연하였다.")
  • 使用 transformers
from transformers import pipeline

pipe = pipeline("text2text-generation", "lmqg/mbart-large-cc25-koquad-qag")
output = pipe("1990년 영화 《 남부군 》에서 단역으로 영화배우 첫 데뷔에 이어 같은 해 KBS 드라마 《지구인》에서 단역으로 출연하였고 이듬해 MBC 《여명의 눈동자》를 통해 단역으로 출연하였다.")

评估

Score Type Dataset
QAAlignedF1Score (BERTScore) 80.71 default 12313321
QAAlignedF1Score (MoverScore) 81.75 default 12313321
QAAlignedPrecision (BERTScore) 78.58 default 12313321
QAAlignedPrecision (MoverScore) 79.01 default 12313321
QAAlignedRecall (BERTScore) 83.05 default 12313321
QAAlignedRecall (MoverScore) 84.86 default 12313321

训练超参数

在微调过程中使用了以下超参数:

  • 数据集路径: lmqg/qag_koquad
  • 数据集名称: default
  • 输入类型: ['段落']
  • 输出类型: ['问题答案']
  • 前缀类型: 无
  • 模型: facebook/mbart-large-cc25
  • 最大长度: 512
  • 输出最大长度: 256
  • 迭代轮数: 11
  • 批次大小: 2
  • 学习率: 0.0001
  • fp16: False
  • 随机种子: 1
  • 梯度积累步数: 32
  • 标签平滑: 0.0

完整的配置可以在 fine-tuning config file 找到。

引用

@inproceedings{ushio-etal-2022-generative,
    title = "{G}enerative {L}anguage {M}odels for {P}aragraph-{L}evel {Q}uestion {G}eneration",
    author = "Ushio, Asahi  and
        Alva-Manchego, Fernando  and
        Camacho-Collados, Jose",
    booktitle = "Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing",
    month = dec,
    year = "2022",
    address = "Abu Dhabi, U.A.E.",
    publisher = "Association for Computational Linguistics",
}