模型:

speechbrain/asr-wav2vec2-commonvoice-en

英文

wav2vec 2.0配合CTC进行的无语言模型的CommonVoice英语训练

该存储库提供了执行端到端系统在CommonVoice(英语语言)上进行自动语音识别所需的所有工具。为了获得更好的体验,我们鼓励您了解更多信息 SpeechBrain

模型的性能如下:

Release Test WER GPUs
03-06-21 15.69 2xV100 32GB

流水线描述

这个ASR系统由2个不同但相关的块组成:

  • 分词器(unigram),将单词转换为子词单元,并使用CommonVoice(EN)的训练转录(train.tsv)进行训练。
  • 声学模型(wav2vec2.0 + CTC)。预训练的wav2vec 2.0模型( wav2vec2-lv60-large )与两个DNN层结合,并在CommonVoice En上进行微调。得到的最终声学表示被送到CTC解码器。

系统使用16kHz(单声道)采样的录音进行训练。当调用transcribe_file时,代码将自动对您的音频进行规范化(即重新采样+选择单声道)(如果需要)。

安装SpeechBrain

首先,请使用以下命令安装transformers和SpeechBrain:

pip install speechbrain transformers

请注意,我们鼓励您阅读我们的教程并了解更多关于 SpeechBrain 的信息。

转录您自己的音频文件(英语)

from speechbrain.pretrained import EncoderDecoderASR

asr_model = EncoderDecoderASR.from_hparams(source="speechbrain/asr-wav2vec2-commonvoice-en", savedir="pretrained_models/asr-wav2vec2-commonvoice-en")
asr_model.transcribe_file("speechbrain/asr-wav2vec2-commonvoice-en/example.wav")

在GPU上进行推断

要在GPU上执行推断,请在调用from_hparams方法时添加run_opts={"device":"cuda"}。

批量并行推断

请使用预训练模型 see this Colab notebook 查看如何使用批量输入句子并行转录。

训练

该模型是使用SpeechBrain训练的。要从头开始训练,请按照以下步骤进行:

  • 克隆SpeechBrain:
  • git clone https://github.com/speechbrain/speechbrain/
    
  • 安装:
  • cd speechbrain
    pip install -r requirements.txt
    pip install -e .
    
  • 运行训练:
  • cd recipes/CommonVoice/ASR/seq2seq
    python train.py hparams/train_en_with_wav2vec.yaml --data_folder=your_data_folder
    

    您可以在 here 找到我们的训练结果(模型、日志等)。

    限制

    SpeechBrain团队在将该模型用于其他数据集时不提供任何性能保证。

    关于SpeechBrain

    引用SpeechBrain

    如果您在研究或商业中使用SpeechBrain,请引用它。

    @misc{speechbrain,
      title={{SpeechBrain}: A General-Purpose Speech Toolkit},
      author={Mirco Ravanelli and Titouan Parcollet and Peter Plantinga and Aku Rouhe and Samuele Cornell and Loren Lugosch and Cem Subakan and Nauman Dawalatabad and Abdelwahab Heba and Jianyuan Zhong and Ju-Chieh Chou and Sung-Lin Yeh and Szu-Wei Fu and Chien-Feng Liao and Elena Rastorgueva and François Grondin and William Aris and Hwidong Na and Yan Gao and Renato De Mori and Yoshua Bengio},
      year={2021},
      eprint={2106.04624},
      archivePrefix={arXiv},
      primaryClass={eess.AS},
      note={arXiv:2106.04624}
    }