模型:

speechbrain/asr-crdnn-commonvoice-fr

英文

使用CommonVoice法语数据在无语言模型的情况下训练的CRDNN+CTC/Attention模型

此代码库提供了在SpeechBrain中预训练的使用CommonVoice(法语)数据的端到端自动语音识别系统所需的所有工具。为了获得更好的体验,我们鼓励您详细了解 SpeechBrain

模型的性能如下:

Release Test CER Test WER GPUs
07-03-21 6.54 17.70 2xV100 16GB

流程描述

此语音识别系统由两个不同但相关的模块组成:

  • 分词器(unigram)将单词转换为子词单元,并使用CommonVoice(法语)的训练转录(train.tsv)进行训练。
  • 声学模型(CRDNN + CTC/Attention)。CRDNN架构由N个卷积神经网络块组成,其在频域上进行归一化和池化。然后,一个双向LSTM连接到最终的DNN,以获得输入到CTC和注意力解码器的最终声学表示。

系统使用采样率为16kHz(单声道)的录音进行训练。当调用 transcribe_file 时,代码将根据需要自动对音频进行标准化(即重新采样+选择单声道)。

安装SpeechBrain

首先,请使用以下命令安装SpeechBrain:

pip install speechbrain

请注意,我们鼓励您阅读我们的教程,了解更多关于 SpeechBrain 的信息。

转录您自己的音频文件(法语)

from speechbrain.pretrained import EncoderDecoderASR

asr_model = EncoderDecoderASR.from_hparams(source="speechbrain/asr-crdnn-commonvoice-fr", savedir="pretrained_models/asr-crdnn-commonvoice-fr")
asr_model.transcribe_file("speechbrain/asr-crdnn-commonvoice-fr/example-fr.wav")

在GPU上进行推断

要在GPU上执行推断,请在调用 from_hparams 方法时添加 run_opts={"device":"cuda"} 。

批量并行推断

请参考 see this Colab notebook 以了解如何使用预训练模型并行转录一批输入句子。

训练

模型是使用SpeechBrain(986a2175)训练的。按照以下步骤从头开始训练:

  • 克隆SpeechBrain:
  • git clone https://github.com/speechbrain/speechbrain/
    
  • 安装:
  • cd speechbrain
    pip install -r requirements.txt
    pip install -e .
    
  • 运行训练:
  • cd recipes/CommonVoice/ASR/seq2seq
    python train.py hparams/train_fr.yaml --data_folder=your_data_folder
    

    您可以在此处找到我们的训练结果(模型、日志等) here

    限制

    SpeechBrain团队对在其他数据集上使用此模型达到的性能不提供任何保证。

    关于SpeechBrain

    引用SpeechBrain

    如果您在研究或商业中使用SpeechBrain,请引用它。

    @misc{speechbrain,
      title={{SpeechBrain}: A General-Purpose Speech Toolkit},
      author={Mirco Ravanelli and Titouan Parcollet and Peter Plantinga and Aku Rouhe and Samuele Cornell and Loren Lugosch and Cem Subakan and Nauman Dawalatabad and Abdelwahab Heba and Jianyuan Zhong and Ju-Chieh Chou and Sung-Lin Yeh and Szu-Wei Fu and Chien-Feng Liao and Elena Rastorgueva and François Grondin and William Aris and Hwidong Na and Yan Gao and Renato De Mori and Yoshua Bengio},
      year={2021},
      eprint={2106.04624},
      archivePrefix={arXiv},
      primaryClass={eess.AS},
      note={arXiv:2106.04624}
    }