模型:

speechbrain/asr-transformer-aishell

英文

AISHELL(普通话)的Transformer

这个存储库提供了在SpeechBrain中使用AISHELL(普通话)预训练的端到端系统执行自动语音识别所需的所有工具。为了获得更好的体验,我们鼓励您了解更多关于 SpeechBrain 的内容。

模型的性能如下:

Release Dev CER Test CER GPUs Full Results
05-03-21 5.60 6.04 2xV100 32GB 1237321

流程描述

这个ASR系统由2个不同但相关的模块组成:

  • 标记器(unigram),将单词转换为子词单元,并使用LibriSpeech的训练转录进行训练。
  • 声学模型由Transformer编码器和带CTC + Transformer的联合解码器组成,因此解码还包括CTC概率。

要从头开始训练这个系统, see our SpeechBrain recipe

该系统使用16kHz的录音进行训练(单声道)。在调用transcribe_file时,如果需要,代码将自动归一化您的音频(即重新采样+选择单声道)。

安装SpeechBrain

首先,请使用以下命令安装SpeechBrain:

pip install speechbrain

请注意,我们鼓励您阅读我们的教程并了解更多关于 SpeechBrain 的内容.

转录您自己的音频文件(英语)

from speechbrain.pretrained import EncoderDecoderASR

asr_model = EncoderDecoderASR.from_hparams(source="speechbrain/asr-transformer-aishell", savedir="pretrained_models/asr-transformer-aishell")
asr_model.transcribe_file("speechbrain/asr-transformer-aishell/example_mandarin.wav")

在GPU上进行推断

要在GPU上执行推断,在调用from_hparams方法时添加run_opts={"device":"cuda"}。

并行处理一个批次的推断

请参考 see this Colab notebook 以了解如何使用预训练模型并行处理一批输入句子的转录

训练

该模型是用SpeechBrain(提交哈希:'986a2175')训练的。按照以下步骤从头开始训练:

  • 克隆SpeechBrain:
  • git clone https://github.com/speechbrain/speechbrain/
    
  • 安装它:
  • cd speechbrain
    pip install -r requirements.txt
    pip install -e .
    
  • 运行训练:
  • cd recipes/AISHELL-1/ASR/transformer/
    python train.py hparams/train_ASR_transformer.yaml --data_folder=your_data_folder
    

    您可以在 here 中找到我们的训练结果(模型、日志等)。

    限制

    SpeechBrain团队不对在其他数据集上使用该模型时的性能提供任何保证。

    关于SpeechBrain

    引用SpeechBrain

    如果您在研究或商业中使用SpeechBrain,请引用它。

    @misc{speechbrain,
      title={{SpeechBrain}: A General-Purpose Speech Toolkit},
      author={Mirco Ravanelli and Titouan Parcollet and Peter Plantinga and Aku Rouhe and Samuele Cornell and Loren Lugosch and Cem Subakan and Nauman Dawalatabad and Abdelwahab Heba and Jianyuan Zhong and Ju-Chieh Chou and Sung-Lin Yeh and Szu-Wei Fu and Chien-Feng Liao and Elena Rastorgueva and François Grondin and William Aris and Hwidong Na and Yan Gao and Renato De Mori and Yoshua Bengio},
      year={2021},
      eprint={2106.04624},
      archivePrefix={arXiv},
      primaryClass={eess.AS},
      note={arXiv:2106.04624}
    }