模型:

google/bert2bert_L-24_wmt_en_de

英文

bert2bert_L-24_wmt_en_de 编码解码模型

该模型于 this paper 年由Sascha Rothe、Shashi Narayan、Aliaksei Severyn引入,并于 this repository 首次发布。

该模型是一个编码-解码模型,其编码器和解码器都是在bert-large检查点上初始化,并在WMT数据集上进行了英德翻译的微调。以上述数据集链接所示。

免责声明:该模型卡片由Hugging Face团队编写。

如何使用

您可以使用该模型进行翻译,例如:

from transformers import AutoTokenizer, AutoModelForSeq2SeqLM

tokenizer = AutoTokenizer.from_pretrained("google/bert2bert_L-24_wmt_en_de", pad_token="<pad>", eos_token="</s>", bos_token="<s>")
model = AutoModelForSeq2SeqLM.from_pretrained("google/bert2bert_L-24_wmt_en_de")

sentence = "Would you like to grab a coffee with me this week?"

input_ids = tokenizer(sentence, return_tensors="pt", add_special_tokens=False).input_ids
output_ids = model.generate(input_ids)[0]
print(tokenizer.decode(output_ids, skip_special_tokens=True))
# should output
# Möchten Sie diese Woche einen Kaffee mit mir schnappen?