模型:
speechbrain/sepformer-wham16k-enhancement
该代码库提供了使用 SpeechBrain 实现的基于 SepFormer 模型进行语音增强(降噪)的所有必要工具,并在 WHAM! 数据集上进行了预训练,该数据集的采样频率为 16k。该数据集基本上是 WSJ0-Mix 数据集的一个版本,其中包含了来自环境的噪声和混响。为了更好的体验,请详细了解 SpeechBrain 。
Release | Test-Set SI-SNR | Test-Set PESQ |
---|---|---|
06-30-22 | 13.8 | 2.20 |
首先,请使用以下命令安装 SpeechBrain:
pip install speechbrain
请注意,我们鼓励您阅读我们的教程,并了解更多关于 SpeechBrain 的信息。
from speechbrain.pretrained import SepformerSeparation as separator import torchaudio model = separator.from_hparams(source="speechbrain/sepformer-wham16k-enhancement", savedir='pretrained_models/sepformer-wham16k-enhancement') # for custom file, change path est_sources = model.separate_file(path='speechbrain/sepformer-wham16k-enhancement/example_wham16k.wav') torchaudio.save("enhanced_wham16k.wav", est_sources[:, :, 0].detach().cpu(), 16000)
要在 GPU 上执行推断,请在调用 from_hparams 方法时添加 run_opts={"device":"cuda"}。
训练脚本目前正在处理一个持续的拉取请求。
我们将在 PR 合并后尽快更新模型卡片。
您可以在此处找到我们的训练结果(模型、日志等) here 。
SpeechBrain 团队不对此模型在其他数据集上的性能提供任何保证。
Referencing SpeechBrain@misc{speechbrain, title={{SpeechBrain}: A General-Purpose Speech Toolkit}, author={Mirco Ravanelli and Titouan Parcollet and Peter Plantinga and Aku Rouhe and Samuele Cornell and Loren Lugosch and Cem Subakan and Nauman Dawalatabad and Abdelwahab Heba and Jianyuan Zhong and Ju-Chieh Chou and Sung-Lin Yeh and Szu-Wei Fu and Chien-Feng Liao and Elena Rastorgueva and François Grondin and William Aris and Hwidong Na and Yan Gao and Renato De Mori and Yoshua Bengio}, year={2021}, eprint={2106.04624}, archivePrefix={arXiv}, primaryClass={eess.AS}, note={arXiv:2106.04624} }Referencing SepFormer
@inproceedings{subakan2021attention, title={Attention is All You Need in Speech Separation}, author={Cem Subakan and Mirco Ravanelli and Samuele Cornell and Mirko Bronzi and Jianyuan Zhong}, year={2021}, booktitle={ICASSP 2021} }