模型:

anas-awadalla/bert-tiny-finetuned-squad

英文

bert-tiny-finetuned-squad

这个模型是在SQUAD数据集上通过fine-tuning的方式从 prajjwal1/bert-tiny 模型得到的。

模型描述

需要更多信息。

预期用途和限制

需要更多信息。

训练和评估数据

需要更多信息。

训练流程

训练超参数

训练时使用了以下超参数:

  • learning_rate: 3e-05
  • train_batch_size: 64
  • eval_batch_size: 8
  • seed: 42
  • distributed_type: multi-GPU
  • optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
  • lr_scheduler_type: linear
  • num_epochs: 2.0

训练结果

框架版本

  • Transformers 4.17.0
  • Pytorch 1.11.0+cu113
  • Datasets 2.0.0
  • Tokenizers 0.11.6