模型:

philschmid/tiny-bert-sst2-distilled

英文

tiny-bert-sst2-distilled

这个模型是在glue数据集上对 google/bert_uncased_L-2_H-128_A-2 进行微调得到的。它在评估集上取得了以下结果:

  • Loss: 1.7305
  • Accuracy: 0.8326

模型描述

需要更多的信息

预期用途和限制

需要更多的信息

训练和评估数据

需要更多的信息

训练过程

训练超参数

在训练过程中使用了以下超参数:

  • learning_rate: 0.0007199555649276667
  • train_batch_size: 1024
  • eval_batch_size: 1024
  • seed: 33
  • optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
  • lr_scheduler_type: linear
  • num_epochs: 7
  • mixed_precision_training: Native AMP

训练结果

Training Loss Epoch Step Validation Loss Accuracy
1.77 1.0 66 1.6939 0.8165
0.729 2.0 132 1.5090 0.8326
0.5242 3.0 198 1.5369 0.8257
0.4017 4.0 264 1.7025 0.8326
0.327 5.0 330 1.6743 0.8245
0.2749 6.0 396 1.7305 0.8337
0.2521 7.0 462 1.7305 0.8326

框架版本

  • Transformers 4.12.3
  • Pytorch 1.9.1
  • Datasets 1.15.1
  • Tokenizers 0.10.3