英文

t5-end2end-question-generation

这个模型是在SQuAD数据集上对t5模型的1,233,321个参数进行微调,以便根据上下文生成问题。

?如果您想学习如何对t5模型进行微调以执行相同的任务,可以按照这里的说明进行操作。

例如:

它在评估集上实现了如下结果:

  • Loss: 1.5691

使用模型

点击此处

训练超参数

在训练过程中使用了以下超参数:

  • learning_rate: 0.0001
  • train_batch_size: 4
  • eval_batch_size: 4
  • seed: 42
  • gradient_accumulation_steps: 16
  • total_train_batch_size: 64
  • optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
  • lr_scheduler_type: linear
  • num_epochs: 7

训练结果

通过训练,取得了如下结果:

框架版本

  • Transformers 4.10.3
  • Pytorch 1.9.0+cu102
  • Datasets 1.12.1
  • Tokenizers 0.10.3