模型:
facebook/wav2vec2-xls-r-1b-en-to-15
Facebook's Wav2Vec2 XLS-R用于语音翻译的Fine-tuned模型。
这是一个 SpeechEncoderDecoderModel 模型。编码器从 facebook/wav2vec2-xls-r-1b 检查点开始进行热启动,解码器从 facebook/mbart-large-50 检查点开始。因此,编码器-解码器模型在15个en-> {lang}的翻译对上进行了Fine-tuned。
该模型可以将从口语en(英语)翻译为以下书面语言{lang}:
en-> { de, tr, fa, sv-SE, mn, zh-CN, cy, ca, sl, et, id, ar, ta, lv, ja }
有关更多信息,请参见 official XLS-R paper 的第5.1.1节。
可以在 this space 上测试该模型。您可以选择目标语言,在英语中录制一些音频,然后坐下来看看检查点能够多好地翻译输入。
由于这是一个标准的sequence to sequence transformer模型,您可以使用“生成”方法通过将语音特征传递给模型来生成转录文本。
您可以通过使用ASR流程直接使用该模型。默认情况下,检查点将口语英语翻译为德语书面语。要更改书面目标语言,您需要将正确的forced_bos_token_id传递给generate(...),以使解码器条件化于正确的目标语言。
要根据所选语言ID选择正确的forced_bos_token_id,请使用以下映射:
MAPPING = { "de": 250003, "tr": 250023, "fa": 250029, "sv": 250042, "mn": 250037, "zh": 250025, "cy": 250007, "ca": 250005, "sl": 250052, "et": 250006, "id": 250032, "ar": 250001, "ta": 250044, "lv": 250017, "ja": 250012, }
例如,如果要将其翻译为瑞典语,可以执行以下操作:
from datasets import load_dataset from transformers import pipeline # select correct `forced_bos_token_id` forced_bos_token_id = MAPPING["sv"] # replace following lines to load an audio file of your choice librispeech_en = load_dataset("patrickvonplaten/librispeech_asr_dummy", "clean", split="validation") audio_file = librispeech_en[0]["file"] asr = pipeline("automatic-speech-recognition", model="facebook/wav2vec2-xls-r-1b-en-to-15", feature_extractor="facebook/wav2vec2-xls-r-1b-en-to-15") translation = asr(audio_file, forced_bos_token_id=forced_bos_token_id)
或者逐步按以下方式进行:
import torch from transformers import Speech2Text2Processor, SpeechEncoderDecoderModel from datasets import load_dataset model = SpeechEncoderDecoderModel.from_pretrained("facebook/wav2vec2-xls-r-1b-en-to-15") processor = Speech2Text2Processor.from_pretrained("facebook/wav2vec2-xls-r-1b-en-to-15") ds = load_dataset("patrickvonplaten/librispeech_asr_dummy", "clean", split="validation") # select correct `forced_bos_token_id` forced_bos_token_id = MAPPING["sv"] inputs = processor(ds[0]["audio"]["array"], sampling_rate=ds[0]["audio"]["array"]["sampling_rate"], return_tensors="pt") generated_ids = model.generate(input_ids=inputs["input_features"], attention_mask=inputs["attention_mask"], forced_bos_token_id=forced_bos_token) transcription = processor.batch_decode(generated_ids)
有关此模型在 Covost2 上的性能,请参见XLS-R(1B)的行。