t5-end2end-question-generation
这个模型是在SQuAD数据集上对t5模型的1,233,321个参数进行微调,以便根据上下文生成问题。
?如果您想学习如何对t5模型进行微调以执行相同的任务,可以按照这里的说明进行操作。
例如:
它在评估集上实现了如下结果:
使用模型
点击此处
训练超参数
在训练过程中使用了以下超参数:
- learning_rate: 0.0001
- train_batch_size: 4
- eval_batch_size: 4
- seed: 42
- gradient_accumulation_steps: 16
- total_train_batch_size: 64
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 7
训练结果
通过训练,取得了如下结果:
框架版本
- Transformers 4.10.3
- Pytorch 1.9.0+cu102
- Datasets 1.12.1
- Tokenizers 0.10.3