模型:

speechbrain/asr-crdnn-rnnlm-librispeech

英文

CRDNN with CTC/Attention and RNNLM trained on LibriSpeech

该存储库提供了在SpeechBrain上预训练的自动语音识别系统,该系统在LibriSpeech(EN)上进行了预训练。为了获得更好的体验,我们鼓励您了解更多信息。模型的性能如下:

Release Test WER GPUs
20-05-22 3.09 1xV100 32GB

管道描述

该ASR系统由3个不同但关联的组件组成:

  • 标记器(unigram),将单词转换为子词单元,并使用LibriSpeech的训练转录进行训练。
  • 在完整的1000万单词数据集上训练的神经语言模型(RNNLM)。
  • 声学模型(CRDNN + CTC/Attention)。CRDNN架构由N个卷积神经网络块组成,其中进行频率域的归一化和池化。然后,双向LSTM连接到最终的DNN,以获得最终的声学表示,然后将其传递给CTC和注意解码器。

该系统使用16kHz的采样音频(单声道)。当调用transcribe_file时,代码将自动对您的音频进行归一化处理(即重新采样+选择单声道),如果需要。

安装SpeechBrain

首先,请使用以下命令安装SpeechBrain:

pip install speechbrain
请注意,我们鼓励您阅读我们的教程,了解更多信息。

转录您自己的音频文件(英文)

from speechbrain.pretrained import EncoderDecoderASR

asr_model = EncoderDecoderASR.from_hparams(source="speechbrain/asr-crdnn-rnnlm-librispeech", savedir="pretrained_models/asr-crdnn-rnnlm-librispeech")
asr_model.transcribe_file('speechbrain/asr-crdnn-rnnlm-librispeech/example.wav')

在GPU上进行推理

要在GPU上进行推理,请在调用from_hparams方法时添加run_opts={"device":"cuda"}。

批量并行推理

请参阅它,了解如何使用预训练模型并行转录一批输入句子。

训练

该模型是使用SpeechBrain(提交哈希:'2abd9f01')进行训练的。要从头开始训练它,请按照以下步骤进行:

  • Clone SpeechBrain:
  • git clone https://github.com/speechbrain/speechbrain/
    
  • 安装它:
  • cd speechbrain
    pip install -r requirements.txt
    pip install -e .
    
  • 运行训练:
  • cd recipes/LibriSpeech/ASR/seq2seq/
    python train.py hparams/train_BPE_1000.yaml --data_folder=your_data_folder
    

    您可以在这里找到我们的训练结果(模型、日志等)。

    限制

    SpeechBrain团队不对在其他数据集上使用此模型时实现的性能提供任何保证。

    关于SpeechBrain

    引用SpeechBrain

    如果您将SpeechBrain用于您的研究或业务,请引用相关论文。

    @misc{speechbrain,
      title={{SpeechBrain}: A General-Purpose Speech Toolkit},
      author={Mirco Ravanelli and Titouan Parcollet and Peter Plantinga and Aku Rouhe and Samuele Cornell and Loren Lugosch and Cem Subakan and Nauman Dawalatabad and Abdelwahab Heba and Jianyuan Zhong and Ju-Chieh Chou and Sung-Lin Yeh and Szu-Wei Fu and Chien-Feng Liao and Elena Rastorgueva and François Grondin and William Aris and Hwidong Na and Yan Gao and Renato De Mori and Yoshua Bengio},
      year={2021},
      eprint={2106.04624},
      archivePrefix={arXiv},
      primaryClass={eess.AS},
      note={arXiv:2106.04624}
    }