模型:
tinkoff-ai/ruDialoGPT-small
此生成模型是基于 sberbank-ai/rugpt3small_based_on_gpt2 的。它是用大量对话数据进行训练的,可用于构建生成型对话代理。
模型是使用上下文大小为3进行训练的。
在私人验证集上,我们计算了 this paper 中引入的度量标准:
sensibleness | specificity | SSA | |
---|---|---|---|
1233321 | 0.64 | 0.5 | 0.57 |
1234321 | 0.78 | 0.69 | 0.735 |
如何使用:
import torch from transformers import AutoTokenizer, AutoModelWithLMHead tokenizer = AutoTokenizer.from_pretrained('tinkoff-ai/ruDialoGPT-small') model = AutoModelWithLMHead.from_pretrained('tinkoff-ai/ruDialoGPT-small') inputs = tokenizer('@@ПЕРВЫЙ@@ привет @@ВТОРОЙ@@ привет @@ПЕРВЫЙ@@ как дела? @@ВТОРОЙ@@', return_tensors='pt') generated_token_ids = model.generate( **inputs, top_k=10, top_p=0.95, num_beams=3, num_return_sequences=3, do_sample=True, no_repeat_ngram_size=2, temperature=1.2, repetition_penalty=1.2, length_penalty=1.0, eos_token_id=50257, max_new_tokens=40 ) context_with_response = [tokenizer.decode(sample_token_ids) for sample_token_ids in generated_token_ids] context_with_response