英文

Hugging Face Transformers和Keras进行问答 ?❤️

这个模型是在SQuAD数据集上对 distilbert-base-cased 进行微调的版本。它在评估集上获得以下结果:

  • 训练损失:0.9300
  • 验证损失:1.1437
  • Epoch:1

模型描述

基于distilbert-base-cased的问答模型,使用了?Transformers + ❤️Keras进行训练。

目标和限制

该模型是为Keras.io的问答教程而训练的。

训练和评估数据

它是在 SQuAD 问答数据集上进行训练的。 ⁉️

训练过程

在Keras示例 here 中找到笔记本。 ❤️

训练超参数

在训练过程中使用了以下超参数:

  • 优化器:{'name': 'Adam', 'learning_rate': 5e-05, 'decay': 0.0, 'beta_1': 0.9, 'beta_2': 0.999, 'epsilon': 1e-07, 'amsgrad': False}
  • 训练精度:mixed_float16

训练结果

Train Loss Validation Loss Epoch
1.5145 1.1500 0
0.9300 1.1437 1

框架版本

  • Transformers 4.16.0.dev0
  • TensorFlow 2.6.0
  • Datasets 1.16.2.dev0
  • Tokenizers 0.10.3