模型:

optimum/distilbert-base-uncased-finetuned-banking77

英文

distilbert-base-uncased-finetuned-banking77

此模型是在banking77数据集上对 distilbert-base-uncased 进行微调的版本。它在评估集上取得以下结果:

  • 损失:0.2935
  • 准确率:0.925
  • F1:0.9250

模型描述

需要更多信息

预期用途和限制

需要更多信息

训练和评估数据

需要更多信息

训练过程

训练超参数

训练过程中使用了以下超参数:

  • 学习率:9.686210354742596e-05
  • 训练批次大小:64
  • 评估批次大小:32
  • 种子:40
  • 优化器:Adam,betas=(0.9,0.999),epsilon=1e-08
  • 学习率调度器类型:linear
  • 训练轮数:5

训练结果

Training Loss Epoch Step Validation Loss Accuracy F1
No log 1.0 126 1.1457 0.7896 0.7685
No log 2.0 252 0.4673 0.8906 0.8889
No log 3.0 378 0.3488 0.9150 0.9151
0.9787 4.0 504 0.3238 0.9180 0.9179
0.9787 5.0 630 0.3126 0.9225 0.9226

框架版本

  • Transformers 4.17.0
  • Pytorch 1.11.0
  • Datasets 2.0.0
  • Tokenizers 0.11.6