模型:
speechbrain/asr-wav2vec2-transformer-aishell
此代码库提供了在 AISHELL + wav2vec2(普通话中文)数据集上预训练的端到端自动语音识别系统所需的所有工具,SpeechBrain 中的内容用于更好地了解。
模型的性能如下:
Release | Dev CER | Test CER | GPUs | Full Results |
---|---|---|---|---|
05-03-21 | 5.19 | 5.58 | 2xV100 32GB | 1237321 |
此语音识别系统由两个不同但相关的模块组成:
要从头开始训练此系统, see our SpeechBrain recipe 。
该系统使用采样频率为 16kHz 的录音进行训练(单声道)。当调用 transcribe_file 时,如果需要,代码将自动对音频进行归一化处理(即重新采样 + 单声道选择)。
首先,请使用以下命令安装 SpeechBrain:
pip install speechbrain
请注意,我们鼓励您阅读我们的教程,了解更多 SpeechBrain 。
from speechbrain.pretrained import EncoderDecoderASR asr_model = EncoderDecoderASR.from_hparams(source="speechbrain/asr-wav2vec2-transformer-aishell", savedir="pretrained_models/asr-wav2vec2-transformer-aishell") asr_model.transcribe_file("speechbrain/asr-wav2vec2-transformer-aishell/example_mandarin.wav")
要在 GPU 上执行推理,请在调用 from_hparams 方法时添加 run_opts={"device":"cuda"}。
请按照 see this Colab notebook 中的说明,使用预训练模型并行转录一批输入句子。
模型是使用 SpeechBrain(Commit hash: '480dde87')训练的。按照以下步骤从头开始训练:
git clone https://github.com/speechbrain/speechbrain/
cd speechbrain pip install -r requirements.txt pip install -e .
cd recipes/AISHELL-1/ASR/transformer/ python train.py hparams/train_ASR_transformer_with_wav2vect.yaml --data_folder=your_data_folder
您可以在 here 中找到我们的训练结果(模型、日志等)。
SpeechBrain 团队不对在其他数据集上使用此模型时实现的性能提供任何保证。
如果您在研究或商业中使用 SpeechBrain,请引用该项目。
@misc{speechbrain, title={{SpeechBrain}: A General-Purpose Speech Toolkit}, author={Mirco Ravanelli and Titouan Parcollet and Peter Plantinga and Aku Rouhe and Samuele Cornell and Loren Lugosch and Cem Subakan and Nauman Dawalatabad and Abdelwahab Heba and Jianyuan Zhong and Ju-Chieh Chou and Sung-Lin Yeh and Szu-Wei Fu and Chien-Feng Liao and Elena Rastorgueva and François Grondin and William Aris and Hwidong Na and Yan Gao and Renato De Mori and Yoshua Bengio}, year={2021}, eprint={2106.04624}, archivePrefix={arXiv}, primaryClass={eess.AS}, note={arXiv:2106.04624} }