英文

da-discourse-coherence-base

该模型是在 DDisco 数据集上对 NbAiLab/nb-bert-base 进行微调得到的。它在评估集上达到以下结果:

  • 损失:0.7487
  • 准确率:0.6915

训练过程

训练超参数

训练过程中使用了以下超参数:

  • 学习率:2e-05
  • 训练批大小:4
  • 评估批大小:4
  • 种子:703
  • 梯度累积步数:16
  • 总训练批大小:64
  • 优化器:Adam,其中betas=(0.9, 0.999),epsilon=1e-08
  • 学习率调度器类型:linear
  • 学习率调度器预热比例:0.05
  • 训练轮数:6.0

训练结果

Training Loss Epoch Step Validation Loss Accuracy
1.3422 0.4 5 1.0166 0.5721
0.9645 0.8 10 0.8966 0.5721
0.9854 1.24 15 0.8499 0.5721
0.8628 1.64 20 0.8379 0.6517
0.9046 2.08 25 0.8228 0.5721
0.8361 2.48 30 0.7980 0.5821
0.8158 2.88 35 0.8095 0.5821
0.8689 3.32 40 0.7989 0.6169
0.8125 3.72 45 0.7730 0.6965
0.843 4.16 50 0.7566 0.6418
0.7421 4.56 55 0.7840 0.6517
0.7949 4.96 60 0.7531 0.6915
0.828 5.4 65 0.7464 0.6816
0.7438 5.8 70 0.7487 0.6915

框架版本

  • Transformers 4.26.0
  • Pytorch 1.13.0a0+d0d6b1f
  • Datasets 2.9.0
  • Tokenizers 0.13.2

贡献者

ajders