英文

wav2vec 2.0基于LibriSpeech训练的CTC

此代码库提供了在SpeechBrain中使用在LibriSpeech(英语)上预训练的端到端系统执行自动语音识别所需的所有工具。为了获得更好的体验,我们鼓励您了解更多信息 SpeechBrain

模型的性能如下:

Release Test clean WER Test other WER GPUs
24-03-22 1.90 3.96 1xA100 40GB

流水线说明

此ASR系统由2个不同但相关的模块组成:

  • 标记器(unigram),将单词转换为字符,并用训练转录(EN)进行训练。
  • 声学模型(wav2vec2.0 + CTC)。将预训练的wav2vec 2.0模型( wav2vec2-large-960h-lv60-self )与两个DNN层组合,并在LibriSpeech上进行微调。得到的最终声学表示被传递给CTC。

系统使用16kHz(单声道)采样的录音进行训练。当调用transcribe_file时,代码将根据需要自动对音频进行规范化(即重新采样+选择单声道)。

安装SpeechBrain

首先,请使用以下命令安装transformers和SpeechBrain:

pip install speechbrain transformers

请注意,我们鼓励您阅读我们的教程并了解更多信息 SpeechBrain

转录您自己的音频文件(英语)

from speechbrain.pretrained import EncoderASR

asr_model = EncoderASR.from_hparams(source="speechbrain/asr-wav2vec2-librispeech", savedir="pretrained_models/asr-wav2vec2-librispeech")
asr_model.transcribe_file("speechbrain/asr-wav2vec2-commonvoice-en/example.wav")

在GPU上进行推理

要在GPU上执行推理,请在调用from_hparams方法时添加run_opts={"device":"cuda"}。

批量并行推理

请通过查看我们 see this Colab notebook 以了解如何使用预训练模型并行转录一批输入句子。

训练

该模型使用SpeechBrain进行训练。要从头开始训练,请按照以下步骤进行:

  • 克隆SpeechBrain:
  • git clone https://github.com/speechbrain/speechbrain/
    
  • 安装:
  • cd speechbrain
    pip install -r requirements.txt
    pip install -e .
    
  • 运行训练:
  • cd recipes/LibriSpeech/ASR/CTC
    python train_with_wav2vec.py hparams/train_en_with_wav2vec.yaml --data_folder=your_data_folder
    

    您可以在 here 中找到我们的训练结果(模型、日志等)。

    限制

    SpeechBrain团队不对在其他数据集上使用此模型时的性能提供任何保证。

    关于SpeechBrain

    引用SpeechBrain

    如果您在研究或商业中使用SpeechBrain,请引用SpeechBrain。

    @misc{speechbrain,
      title={{SpeechBrain}: A General-Purpose Speech Toolkit},
      author={Mirco Ravanelli and Titouan Parcollet and Peter Plantinga and Aku Rouhe and Samuele Cornell and Loren Lugosch and Cem Subakan and Nauman Dawalatabad and Abdelwahab Heba and Jianyuan Zhong and Ju-Chieh Chou and Sung-Lin Yeh and Szu-Wei Fu and Chien-Feng Liao and Elena Rastorgueva and François Grondin and William Aris and Hwidong Na and Yan Gao and Renato De Mori and Yoshua Bengio},
      year={2021},
      eprint={2106.04624},
      archivePrefix={arXiv},
      primaryClass={eess.AS},
      note={arXiv:2106.04624}
    }