模型:

ehcalabres/wav2vec2-lg-xlsr-en-speech-emotion-recognition

英文

通过微调Wav2Vec 2.0实现语音情绪识别

该模型是对 jonatasgrosman/wav2vec2-large-xlsr-53-english 进行微调以用于语音情绪识别(SER)任务。

用于微调原始预训练模型的数据集是 RAVDESS dataset 。该数据集提供了1440个样本的英语录音,演员们表演了8种不同的情绪:

emotions = ['angry', 'calm', 'disgust', 'fearful', 'happy', 'neutral', 'sad', 'surprised']

该模型在评估集上达到以下结果:

  • 损失: 0.5023
  • 准确率: 0.8223

模型描述

需要更多信息

预期用途和限制

需要更多信息

训练和评估数据

需要更多信息

训练过程

训练超参数

在训练过程中使用了以下超参数:

  • 学习率: 0.0001
  • 训练批次大小: 4
  • 评估批次大小: 4
  • 种子: 42
  • 梯度积累步数: 2
  • 总训练批次大小: 8
  • 优化器: Adam,beta=(0.9,0.999),epsilon=1e-08
  • 学习率调度器类型: 线性
  • 训练轮数: 3
  • 混合精度训练: Native AMP

训练结果

Training Loss Epoch Step Validation Loss Accuracy
2.0752 0.21 30 2.0505 0.1359
2.0119 0.42 60 1.9340 0.2474
1.8073 0.63 90 1.5169 0.3902
1.5418 0.84 120 1.2373 0.5610
1.1432 1.05 150 1.1579 0.5610
0.9645 1.26 180 0.9610 0.6167
0.8811 1.47 210 0.8063 0.7178
0.8756 1.68 240 0.7379 0.7352
0.8208 1.89 270 0.6839 0.7596
0.7118 2.1 300 0.6664 0.7735
0.4261 2.31 330 0.6058 0.8014
0.4394 2.52 360 0.5754 0.8223
0.4581 2.72 390 0.4719 0.8467
0.3967 2.93 420 0.5023 0.8223

联系

有任何疑问,请通过 Twitter 联系我(GitHub存储库即将推出)。

框架版本

  • Transformers 4.8.2
  • Pytorch 1.9.0+cu102
  • Datasets 1.9.0
  • Tokenizers 0.10.3