模型:

Einmalumdiewelt/DistilBART_CNN_GNAD_V2

英文

DistilBART_CNN_GNAD_V2

这个模型是 Einmalumdiewelt/DistilBART_CNN_GNAD_V2 的一个经过微调的版本,训练于一个未知的数据集。它在评估集上取得了以下结果:

  • Loss(损失): 2.7281
  • Rouge1(Rouge-1): 27.7253
  • Rouge2(Rouge-2): 8.4647
  • Rougel(Rouge-L): 18.2059
  • Rougelsum(Rouge-S): 23.238
  • Gen Len(生成文本长度): 91.6827

模型描述

需要更多信息

预期用途和限制

需要更多信息

训练和评估数据

需要更多信息

训练过程

训练超参数

训练过程中使用了以下超参数:

  • learning_rate(学习率): 5e-05
  • train_batch_size(训练批次大小): 8
  • eval_batch_size(评估批次大小): 8
  • seed(随机种子): 42
  • optimizer(优化器): Adam with betas=(0.9,0.999) and epsilon=1e-08
  • lr_scheduler_type(学习率调度器类型): linear
  • num_epochs(训练轮数): 10.0

训练结果

框架版本

  • Transformers 4.22.0.dev0
  • Pytorch 1.12.1+cu113
  • Datasets 2.4.0
  • Tokenizers 0.12.1