英文

使用SQAC对西班牙T5(小型)进行微调,用于西班牙问答?❓

SQAC 上微调的 spanish-T5-small ,用于问答下游任务。

西班牙T5(小型)的详细信息

T5(小型)是从 large_spanish_corpus 开始训练的,用于HuggingFace/Flax/Jax Week。

数据集的详细信息?

该数据集包含6,247个背景和18,817个问题及其答案,每个片段的答案为1到5。背景的来源有:

测试数据集的结果?

Metric # Value
BLEU 41.94

模型展示?

from transformers import T5ForConditionalGeneration, AutoTokenizer
import torch
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
ckpt = 'mrm8488/spanish-t5-small-sqac-for-qa'
tokenizer = AutoTokenizer.from_pretrained(ckpt)
model = T5ForConditionalGeneration.from_pretrained(ckpt).to(device)



def get_answer(question, context):
  input_text = 'question: %s  context: %s' % (question, context)
  features = tokenizer([input_text ], padding='max_length', truncation=True, max_length=512, return_tensors='pt')
  output = model.generate(input_ids=features['input_ids'].to(device), 
               attention_mask=features['attention_mask'].to(device))

  return tokenizer.decode(output[0], skip_special_tokens=True)
  
context = '''
La ex codirectora del grupo de investigación de IA ética de Google, Margaret Mitchell, 
quien fue despedida en febrero después de una controversia sobre un artículo crítico del que fue coautora, 
se unirá a HuggingFace para ayudar a que los algoritmos de IA sean más justos.
'''

question = '¿Qué hará Margaret Mitchell en HuggingFace?'

print(get_answer(context, question))

# ayudar a que los algoritmos de ia sean más justos
  

Manuel Romero/@mrm8488 创建,并得到 Narrativa 的支持

在西班牙制作❤