英文

distilbert-imdb

这个模型是在imdb数据集上对 distilbert-base-uncased 进行微调后的版本(训练笔记本是 here )。它在评估集上取得了以下结果:

  • 损失:0.1903
  • 准确率:0.928

模型描述

需要更多信息

预期用途和限制

需要更多信息

训练和评估数据

需要更多信息

训练过程

训练超参数

训练过程中使用了以下超参数:

  • learning_rate:5e-05
  • train_batch_size:16
  • eval_batch_size:16
  • seed:42
  • optimizer:Adam with betas=(0.9,0.999) and epsilon=1e-08
  • lr_scheduler_type:linear
  • num_epochs:1

训练结果

Training Loss Epoch Step Validation Loss Accuracy
0.2195 1.0 1563 0.1903 0.928

框架版本

  • Transformers 4.15.0
  • Pytorch 1.10.0+cu111
  • Datasets 1.17.0
  • Tokenizers 0.10.3