模型:

tinkoff-ai/ruDialoGPT-small

英文

此生成模型是基于 sberbank-ai/rugpt3small_based_on_gpt2 的。它是用大量对话数据进行训练的,可用于构建生成型对话代理。

模型是使用上下文大小为3进行训练的。

在私人验证集上,我们计算了 this paper 中引入的度量标准:

  • 可理解性:众包工作者被问及模型的回答是否与给定上下文一致
  • 特异性:众包工作者被问及模型的回答是否针对给定上下文具体,换句话说,我们不希望模型给出普遍而无聊的回答
  • SSA,即上述两个指标的平均值(可理解性特异性平均值)
sensibleness specificity SSA
1233321 0.64 0.5 0.57
1234321 0.78 0.69 0.735

如何使用:

import torch
from transformers import AutoTokenizer, AutoModelWithLMHead

tokenizer = AutoTokenizer.from_pretrained('tinkoff-ai/ruDialoGPT-small')
model = AutoModelWithLMHead.from_pretrained('tinkoff-ai/ruDialoGPT-small')
inputs = tokenizer('@@ПЕРВЫЙ@@ привет @@ВТОРОЙ@@ привет @@ПЕРВЫЙ@@ как дела? @@ВТОРОЙ@@', return_tensors='pt')
generated_token_ids = model.generate(
    **inputs,
    top_k=10,
    top_p=0.95,
    num_beams=3,
    num_return_sequences=3,
    do_sample=True,
    no_repeat_ngram_size=2,
    temperature=1.2,
    repetition_penalty=1.2,
    length_penalty=1.0,
    eos_token_id=50257,
    max_new_tokens=40
)
context_with_response = [tokenizer.decode(sample_token_ids) for sample_token_ids in generated_token_ids]
context_with_response