模型:

speechbrain/asr-transformer-transformerlm-librispeech

英文

LibriSpeech的Transformer (带有Transformer语言模型的Transformer)

该代码库提供了在SpeechBrain中通过在LibriSpeech(EN)上预训练的端到端系统执行自动语音识别所需的所有工具。为了获得更好的体验,我们建议您了解有关 SpeechBrain 的更多信息。该模型的性能如下:

Release Test clean WER Test other WER GPUs
24-03-22 2.27 5.53 4xV100 32GB

管道描述

该ASR系统由3个不同但相互关联的块组成:

  • 分词器(unigram),用于将单词转换为子词单元,并使用LibriSpeech的训练转录进行训练。
  • 神经语言模型(Transformer LM),在完整的1000万个单词数据集上进行训练。
  • 声学模型由一个Transformer编码器和一个带有CTC + Transformer的联合解码器组成,因此解码还包括CTC概率。

该系统使用16kHz采样的录音进行训练(单声道)。在调用 transcribe_file 时,如果需要,代码将自动对音频进行规范化(即重新采样+选择单声道)。

安装SpeechBrain

首先,请使用以下命令安装SpeechBrain:

pip install speechbrain

请注意,我们鼓励您阅读我们的教程,并了解有关 SpeechBrain 的更多信息。

转录您自己的音频文件(英语)

from speechbrain.pretrained import EncoderDecoderASR

asr_model = EncoderDecoderASR.from_hparams(source="speechbrain/asr-transformer-transformerlm-librispeech", savedir="pretrained_models/asr-transformer-transformerlm-librispeech")
asr_model.transcribe_file("speechbrain/asr-transformer-transformerlm-librispeech/example.wav")

GPU上的推理

要在GPU上执行推理,请在调用 from_hparams 方法时添加 run_opts={"device":"cuda"}。

并行批量推理

请通过查看如何使用预训练模型并行转录一批输入句子 来了解详情。

训练

该模型是使用SpeechBrain(Commit hash: 'f73fcc35')训练的。要从头开始训练,请按照以下步骤进行:

  • 克隆SpeechBrain:
  • git clone https://github.com/speechbrain/speechbrain/
    
  • 安装:
  • cd speechbrain
    pip install -r requirements.txt
    pip install -e .
    
  • 运行训练:
  • cd recipes/LibriSpeech/ASR/transformer
    python train.py hparams/transformer.yaml --data_folder=your_data_folder
    

    您可以在 here 找到我们的训练结果(模型、日志等)。

    限制

    SpeechBrain团队不对在其他数据集上使用该模型时的性能提供任何保证。

    关于SpeechBrain

    引用SpeechBrain

    如果您在研究或商业上使用SpeechBrain,请引用它。

    @misc{speechbrain,
      title={{SpeechBrain}: A General-Purpose Speech Toolkit},
      author={Mirco Ravanelli and Titouan Parcollet and Peter Plantinga and Aku Rouhe and Samuele Cornell and Loren Lugosch and Cem Subakan and Nauman Dawalatabad and Abdelwahab Heba and Jianyuan Zhong and Ju-Chieh Chou and Sung-Lin Yeh and Szu-Wei Fu and Chien-Feng Liao and Elena Rastorgueva and François Grondin and William Aris and Hwidong Na and Yan Gao and Renato De Mori and Yoshua Bengio},
      year={2021},
      eprint={2106.04624},
      archivePrefix={arXiv},
      primaryClass={eess.AS},
      note={arXiv:2106.04624}
    }