英文

? 描述

专用于对话摘要的俄语 MBart 模型微调。

该模型首先由 Ilya Gusev Gazeta dataset 上进行微调。我们使用 GoogleTranslateAPI 将该模型进一步微调到了翻译成俄语的 SamSum dataset 上。

? 此外!我们实现了一个 @summarization_bot 的 Telegram 机器人,可以使用此模型进行推断。将其添加到聊天中,而不是一堆垃圾信息,获取摘要! ?

❓ 如何在代码中使用

from transformers import MBartTokenizer, MBartForConditionalGeneration

# Download model and tokenizer
model_name = "Kirili4ik/mbart_ruDialogSum"   
tokenizer =  AutoTokenizer.from_pretrained(model_name)
model = MBartForConditionalGeneration.from_pretrained(model_name)
model.eval()

article_text = "..."

input_ids = tokenizer(
    [article_text],
    max_length=600,
    padding="max_length",
    truncation=True,
    return_tensors="pt",
)["input_ids"]

output_ids = model.generate(
    input_ids=input_ids,
    top_k=0,
    num_beams=3,
    no_repeat_ngram_size=3
)[0]


summary = tokenizer.decode(output_ids, skip_special_tokens=True)
print(summary)