模型:

speechbrain/asr-wav2vec2-transformer-aishell

英文

AISHELL + wav2vec2 的 Transformer(普通话中文)

此代码库提供了在 AISHELL + wav2vec2(普通话中文)数据集上预训练的端到端自动语音识别系统所需的所有工具,SpeechBrain 中的内容用于更好地了解。

模型的性能如下:

Release Dev CER Test CER GPUs Full Results
05-03-21 5.19 5.58 2xV100 32GB 1237321

管道描述

此语音识别系统由两个不同但相关的模块组成:

  • 标记器(unigram),将单词转换为子词单元,并使用 LibriSpeech 的训练转录进行训练。
  • 由 wav2vec2 编码器和带有 CTC + Transformer 的联合解码器组成的声学模型。因此,解码还包括了 CTC 概率。

要从头开始训练此系统, see our SpeechBrain recipe

该系统使用采样频率为 16kHz 的录音进行训练(单声道)。当调用 transcribe_file 时,如果需要,代码将自动对音频进行归一化处理(即重新采样 + 单声道选择)。

安装 SpeechBrain

首先,请使用以下命令安装 SpeechBrain:

pip install speechbrain

请注意,我们鼓励您阅读我们的教程,了解更多 SpeechBrain

转录您自己的音频文件(英文)

from speechbrain.pretrained import EncoderDecoderASR
asr_model = EncoderDecoderASR.from_hparams(source="speechbrain/asr-wav2vec2-transformer-aishell", savedir="pretrained_models/asr-wav2vec2-transformer-aishell")
asr_model.transcribe_file("speechbrain/asr-wav2vec2-transformer-aishell/example_mandarin.wav")

在 GPU 上进行推理

要在 GPU 上执行推理,请在调用 from_hparams 方法时添加 run_opts={"device":"cuda"}。

批处理上的并行推理

请按照 see this Colab notebook 中的说明,使用预训练模型并行转录一批输入句子。

训练

模型是使用 SpeechBrain(Commit hash: '480dde87')训练的。按照以下步骤从头开始训练:

  • 克隆 SpeechBrain:
  • git clone https://github.com/speechbrain/speechbrain/
    
  • 安装:
  • cd speechbrain
    pip install -r requirements.txt
    pip install -e .
    
  • 运行训练:
  • cd recipes/AISHELL-1/ASR/transformer/
    python train.py hparams/train_ASR_transformer_with_wav2vect.yaml --data_folder=your_data_folder
    

    您可以在 here 中找到我们的训练结果(模型、日志等)。

    限制

    SpeechBrain 团队不对在其他数据集上使用此模型时实现的性能提供任何保证。

    关于 SpeechBrain

    引用 SpeechBrain

    如果您在研究或商业中使用 SpeechBrain,请引用该项目。

    @misc{speechbrain,
      title={{SpeechBrain}: A General-Purpose Speech Toolkit},
      author={Mirco Ravanelli and Titouan Parcollet and Peter Plantinga and Aku Rouhe and Samuele Cornell and Loren Lugosch and Cem Subakan and Nauman Dawalatabad and Abdelwahab Heba and Jianyuan Zhong and Ju-Chieh Chou and Sung-Lin Yeh and Szu-Wei Fu and Chien-Feng Liao and Elena Rastorgueva and François Grondin and William Aris and Hwidong Na and Yan Gao and Renato De Mori and Yoshua Bengio},
      year={2021},
      eprint={2106.04624},
      archivePrefix={arXiv},
      primaryClass={eess.AS},
      note={arXiv:2106.04624}
    }