模型:

anas-awadalla/gpt2-large-lr-1e5-span-head-finetuned-squad

英文

gpt2-large-lr-1e5-span-head-finetuned-squad

该模型是在squad数据集上对 gpt2-large 进行微调的版本。

模型描述

需要更多信息。

预期用途和限制

需要更多信息。

训练和评估数据

需要更多信息。

训练过程

训练超参数

训练时使用了以下超参数:

  • learning_rate: 1e-05
  • train_batch_size: 8
  • eval_batch_size: 8
  • seed: 42
  • distributed_type: multi-GPU
  • num_devices: 2
  • total_train_batch_size: 16
  • total_eval_batch_size: 16
  • optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
  • lr_scheduler_type: linear
  • num_epochs: 2.0

训练结果

框架版本

  • Transformers 4.20.0.dev0
  • Pytorch 1.11.0+cu113
  • Datasets 2.3.2
  • Tokenizers 0.11.6