英文

这个模型是在deberta-v2-base-japanese基础上进行微调,用于QA任务。

这个模型是使用在運転領域的QA数据集(DDQA)进行微调的。

您可以使用这个模型进行问答任务。

如何使用

请先安装transformers、pytorch、sentencepiece和Juman++。然后执行以下代码,即可进行问答任务。 请执行以下代码。

import torch
from transformers import AutoTokenizer, AutoModelForQuestionAnswering

tokenizer = AutoTokenizer.from_pretrained('ku-nlp/deberta-v2-base-japanese')
model=AutoModelForQuestionAnswering.from_pretrained('Mizuiro-sakura/deberta-v2-base-japanese-finetuned-QAe') # 学習済みモデルの読み込み

text={
    'context':'私の名前はEIMIです。好きな食べ物は苺です。 趣味は皆さんと会話することです。',
    'question' :'好きな食べ物は何ですか'
}

input_ids=tokenizer.encode(text['question'],text['context']) # tokenizerで形態素解析しつつコードに変換する
output= model(torch.tensor([input_ids])) # 学習済みモデルを用いて解析
prediction = tokenizer.decode(input_ids[torch.argmax(output.start_logits): torch.argmax(output.end_logits)]) # 答えに該当する部分を抜き取る
print(prediction)

模型准确度

精确匹配(Exact Match):0.8038277511961722

f1:0.8959389668095072

deberta-v2-base-japanese是什么?

这是一个在日本维基百科(3.2GB)、CC-100的日文部分(85GB)和OSCAR的日文部分(54GB)上进行预训练的模型,由京都大学黒橋研究室公开。

模型描述

这是一个在日本维基百科、CC-100的日文部分和OSCAR的日文部分上进行预训练的日本DeBERTa V2基础模型。

致谢

我想感谢京都大学黒橋研究室分享了这个模型。I would like to thank Kurohashi Lab at Kyoto University.