模型:
speechbrain/asr-wav2vec2-librispeech
此代码库提供了在SpeechBrain中使用在LibriSpeech(英语)上预训练的端到端系统执行自动语音识别所需的所有工具。为了获得更好的体验,我们鼓励您了解更多信息 SpeechBrain 。
模型的性能如下:
Release | Test clean WER | Test other WER | GPUs |
---|---|---|---|
24-03-22 | 1.90 | 3.96 | 1xA100 40GB |
此ASR系统由2个不同但相关的模块组成:
系统使用16kHz(单声道)采样的录音进行训练。当调用transcribe_file时,代码将根据需要自动对音频进行规范化(即重新采样+选择单声道)。
首先,请使用以下命令安装transformers和SpeechBrain:
pip install speechbrain transformers
请注意,我们鼓励您阅读我们的教程并了解更多信息 SpeechBrain 。
from speechbrain.pretrained import EncoderASR asr_model = EncoderASR.from_hparams(source="speechbrain/asr-wav2vec2-librispeech", savedir="pretrained_models/asr-wav2vec2-librispeech") asr_model.transcribe_file("speechbrain/asr-wav2vec2-commonvoice-en/example.wav")
要在GPU上执行推理,请在调用from_hparams方法时添加run_opts={"device":"cuda"}。
请通过查看我们 see this Colab notebook 以了解如何使用预训练模型并行转录一批输入句子。
该模型使用SpeechBrain进行训练。要从头开始训练,请按照以下步骤进行:
git clone https://github.com/speechbrain/speechbrain/
cd speechbrain pip install -r requirements.txt pip install -e .
cd recipes/LibriSpeech/ASR/CTC python train_with_wav2vec.py hparams/train_en_with_wav2vec.yaml --data_folder=your_data_folder
您可以在 here 中找到我们的训练结果(模型、日志等)。
SpeechBrain团队不对在其他数据集上使用此模型时的性能提供任何保证。
如果您在研究或商业中使用SpeechBrain,请引用SpeechBrain。
@misc{speechbrain, title={{SpeechBrain}: A General-Purpose Speech Toolkit}, author={Mirco Ravanelli and Titouan Parcollet and Peter Plantinga and Aku Rouhe and Samuele Cornell and Loren Lugosch and Cem Subakan and Nauman Dawalatabad and Abdelwahab Heba and Jianyuan Zhong and Ju-Chieh Chou and Sung-Lin Yeh and Szu-Wei Fu and Chien-Feng Liao and Elena Rastorgueva and François Grondin and William Aris and Hwidong Na and Yan Gao and Renato De Mori and Yoshua Bengio}, year={2021}, eprint={2106.04624}, archivePrefix={arXiv}, primaryClass={eess.AS}, note={arXiv:2106.04624} }