s2t-small-mustc-en-it-st 是一个用于端到端语音翻译(ST)的语音转文本Transformer(S2T)模型。此S2T模型由 this paper 提出并在 this repository 发布。
S2T是一个基于Transformer的序列到序列(编码器-解码器)模型,专为端到端的自动语音识别(ASR)和语音翻译(ST)而设计。它使用卷积下采样器将语音输入的长度缩小3/4,然后将其输入编码器。该模型使用标准的自回归交叉熵损失进行训练,并自回归地生成转录/翻译。
这个模型可以用于端到端的英语语音到意大利语文本翻译。请参阅 model hub 查找其他S2T检查点。
由于这是一个标准的序列到序列transformer模型,您可以使用"generate"方法通过将语音特征传递给模型来生成转录。
注意:Speech2TextProcessor对象使用 torchaudio 来提取滤波器组特征。在运行此示例之前,请确保安装torchaudio软件包。
您可以使用pip install transformers"[speech, sentencepiece]"命令安装额外的语音依赖项,也可以使用pip install torchaudio sentencepiece命令单独安装这些软件包。
import torch from transformers import Speech2TextProcessor, Speech2TextForConditionalGeneration from datasets import load_dataset import soundfile as sf model = Speech2TextForConditionalGeneration.from_pretrained("facebook/s2t-small-mustc-en-it-st") processor = Speech2TextProcessor.from_pretrained("facebook/s2t-small-mustc-en-it-st") def map_to_array(batch): speech, _ = sf.read(batch["file"]) batch["speech"] = speech return batch ds = load_dataset( "patrickvonplaten/librispeech_asr_dummy", "clean", split="validation" ) ds = ds.map(map_to_array) inputs = processor( ds["speech"][0], sampling_rate=16_000, return_tensors="pt" ) generated_ids = model.generate(input_ids=inputs["input_features"], attention_mask=inputs["attention_mask"]) translation = processor.batch_decode(generated_ids, skip_special_tokens=True)
s2t-small-mustc-en-it-st是在 MuST-C 的英意语言子集上进行训练的。MuST-C是一个多语言语音翻译语料库,其规模和质量有助于训练端到端的从英语到多种语言的语音翻译系统。对于每种目标语言,MuST-C包括来自英语TED演讲的数百小时音频录音,这些录音在句子级别与其手动转录和翻译进行了自动对齐。
通过PyKaldi或torchaudio从WAV/FLAC音频文件自动提取符合Kaldi标准的80通道对数梅尔滤波器组特征对语音数据进行预处理。然后对每个示例应用基于语句的CMVN(倒谱平均值和方差归一化)。
对文本进行小写处理并使用SentencePiece进行标记,词汇表大小为8,000个。
该模型使用标准的自回归交叉熵损失和 SpecAugment 进行训练。编码器接收语音特征,解码器自回归地生成转录。为了加快模型训练和获得更好的性能,编码器进行了英语ASR的预训练。
en-it的MuST-C测试结果(BLEU分数)为22.7。
@inproceedings{wang2020fairseqs2t, title = {fairseq S2T: Fast Speech-to-Text Modeling with fairseq}, author = {Changhan Wang and Yun Tang and Xutai Ma and Anne Wu and Dmytro Okhonko and Juan Pino}, booktitle = {Proceedings of the 2020 Conference of the Asian Chapter of the Association for Computational Linguistics (AACL): System Demonstrations}, year = {2020}, }