此分类模型基于 sberbank-ai/ruRoberta-large 。该模型应该用于在对话的上下文中产生最后一条消息的相关性和特异性。
标签解释:
它在无监督的方式下使用大量对话数据进行预训练:模型被训练以预测最后一条回应是否来自真实对话,或者是随机从其他对话中提取的。然后,它在手动标注的示例上进行微调(数据集将很快发布)。
模型在验证集上(数据集将很快发布)的性能(使用验证样本的最佳阈值):
threshold | f0.5 | ROC AUC | |
---|---|---|---|
relevance | 0.59 | 0.86 | 0.83 |
specificity | 0.61 | 0.85 | 0.86 |
如何使用:
import torch from transformers import AutoTokenizer, AutoModelForSequenceClassification tokenizer = AutoTokenizer.from_pretrained('tinkoff-ai/response-quality-classifier-large') model = AutoModelForSequenceClassification.from_pretrained('tinkoff-ai/response-quality-classifier-large') inputs = tokenizer('[CLS]привет[SEP]привет![SEP]как дела?[RESPONSE_TOKEN]норм, у тя как?', max_length=128, add_special_tokens=False, return_tensors='pt') with torch.inference_mode(): logits = model(**inputs).logits probas = torch.sigmoid(logits)[0].cpu().detach().numpy() relevance, specificity = probas
这是一个可以方便地与该模型进行交互的 app 。
该工作是在Tinkoff实习期间由 egoriyaa 完成的,由 solemn-leader 担任导师。