英文

模型描述

Tk-Instruct 是一系列编码器-解码器Transformer模型,通过遵循上下文指令(明确的自然语言任务定义、k-shot示例、解释等)来解决各种NLP任务。它们基于预训练的 T5 models 模型进行构建,并在 Natural Instructions benchmark 中收集的大量任务和指令上进行微调训练,该数据集总共包含70个不同领域的1600多个任务。这使得模型不仅能够处理训练任务,还可以推广到许多未见过的任务,而无需进行进一步的参数更新。

更多使用该模型的资源:

用途和限制

Tk-Instruct 可以通过遵循指令执行许多NLP任务。

如何使用

在给模型提供指令时,需要在原始输入之前添加任务定义、示例演示或解释,并将其输入模型中。您可以按照以下方式轻松尝试 Tk-Instruct 模型:

>>> from transformers import AutoTokenizer, AutoModelForSeq2SeqLM

>>> tokenizer = AutoTokenizer.from_pretrained("allenai/tk-instruct-3b-def")
>>> model = AutoModelForSeq2SeqLM.from_pretrained("allenai/tk-instruct-3b-def")

>>> input_ids = tokenizer.encode(
        "Definition: return the currency of the given country. Now complete the following example - Input: India. Output:", 
        return_tensors="pt")
>>> output = model.generate(input_ids, max_length=10)
>>> output = tokenizer.decode(output[0], skip_special_tokens=True)   # model should output 'Indian Rupee'

>>> input_ids = tokenizer.encode(
        "Definition: negate the following sentence. Input: John went to school. Output:", 
        return_tensors="pt")
>>> output = model.generate(input_ids, max_length=10)
>>> output = tokenizer.decode(output[0], skip_special_tokens=True)   # model should output 'John did not go to shool.'

限制

我们仍在努力了解这些模型的行为,但已经发现了一些问题:

  • 模型对指令通常较为敏感。有时改变指令的措辞可能会导致非常不同的输出结果。
  • 模型并不总是遵循指令。有时模型不会遵循您的指令(例如,当您要求模型生成一句话时,它可能仍然生成一个词或一整个故事)。
  • 模型可能在某些任务上完全失败。

如果您发现了严重的问题或任何有趣的结果,欢迎与我们分享!

训练数据

Tk-Instruct 是使用 Natural Instructions benchmark 中的任务和指令进行训练的,该数据集总共包含70个不同领域的1600多个任务。我们遵循了官方的训练/测试数据划分。Tk-Instruct 系列模型使用757个任务进行训练,mTk-Instruct系列模型使用1271个任务进行训练(其中包括一些非英文任务)。

训练任务属于64个广泛的类别,例如文本分类/问答/情感分析/摘要生成/语法错误检测/对话生成等。其余12个类别用于评估。

训练过程

我们的所有模型都是从T5模型或mT5模型初始化而来的。由于生成输出可以被视为一种语言建模形式,我们使用它们的 LM adapted version 进行初始化。所有数据都转换为文本到文本格式,并通过微调训练来最大化输出序列的可能性。

我们的 released models 有不同的大小,每个模型都使用特定类型的指令编码进行训练。例如, tk-instruct-3b-def-pos 是从 t5-xl-lm-adapt 初始化的,并在训练期间使用任务定义和2个正面示例作为指令。尽管它们是使用一种类型的指令编码进行训练的,但我们发现它们通常可以在测试时与其他类型的编码一起使用(请参阅我们的文章了解更多信息)。

BibTeX条目和引用信息

@article{wang2022benchmarking,
  title={Benchmarking Generalization via In-Context Instructions on 1,600+ Language Tasks},
  author={Yizhong Wang and Swaroop Mishra and Pegah Alipoormolabashi and Yeganeh Kordi and Amirreza Mirzaei and A. Arunkumar and Arjun Ashok and Arut Selvan Dhanasekaran and Atharva Naik and David Stap and Eshaan Pathak and Giannis Karamanolakis and Haizhi Gary Lai and Ishan Purohit and Ishani Mondal and Jacob Anderson and Kirby Kuznia and Krima Doshi and Maitreya Patel and Kuntal Kumar Pal and M. Moradshahi and Mihir Parmar and Mirali Purohit and Neeraj Varshney and Phani Rohitha Kaza and Pulkit Verma and Ravsehaj Singh Puri and Rushang Karia and Shailaja Keyur Sampat and Savan Doshi and Siddharth Deepak Mishra and Sujan C. Reddy and Sumanta Patro and Tanay Dixit and Xu-dong Shen and Chitta Baral and Yejin Choi and Hannaneh Hajishirzi and Noah A. Smith and Daniel Khashabi},
  year={2022},
  archivePrefix={arXiv},
  eprint={2204.07705},
  primaryClass={cs.CL},
}