模型:

Qiliang/bart-large-cnn-samsum-ElectrifAi_v10

英文

bart-large-cnn-samsum-ElectrifAi_v10

这个模型是在未知数据集上对 philschmid/bart-large-cnn-samsum 进行微调的版本。它在评估集上取得了以下结果:

  • Loss: 1.1748
  • Rouge1: 58.3392
  • Rouge2: 35.1686
  • Rougel: 45.4136
  • Rougelsum: 56.9138
  • Gen Len: 108.375

模型描述

需要更多信息

意图和限制

需要更多信息

训练和评估数据

需要更多信息

训练流程

训练超参数

在训练过程中使用了以下超参数:

  • learning_rate: 2e-05
  • train_batch_size: 4
  • eval_batch_size: 4
  • seed: 42
  • optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
  • lr_scheduler_type: linear
  • num_epochs: 3
  • mixed_precision_training: Native AMP

训练结果

Training Loss Epoch Step Validation Loss Rouge1 Rouge2 Rougel Rougelsum Gen Len
No log 1.0 21 1.1573 56.0772 34.1572 44.3652 54.8621 106.0833
No log 2.0 42 1.1764 57.7245 34.6517 45.67 56.3426 106.4167
No log 3.0 63 1.1748 58.3392 35.1686 45.4136 56.9138 108.375

框架版本

  • Transformers 4.25.1
  • Pytorch 1.12.1
  • Datasets 2.6.1
  • Tokenizers 0.13.2