模型:

model-attribution-challenge/xlnet-base-cased

英文

XLNet(基础规模模型)

XLNet是英文文本预训练模型。它在Yang等人的论文 XLNet: Generalized Autoregressive Pretraining for Language Understanding 中首次提出,并于 this repository 发布。

免责声明:发布XLNet的团队没有为该模型编写模型卡,因此本模型卡是由Hugging Face团队编写的。

模型描述

XLNet是一种基于新型广义排列语言建模目标的无监督语言表示学习方法。此外,XLNet使用Transformer-XL作为骨干模型,在涉及长文本的语言任务中表现出色。总体而言,XLNet在包括问答、自然语言推理、情感分析和文档排序在内的各种下游语言任务中实现了最先进的结果(SOTA)。

预期用途和限制

该模型主要用于在下游任务上进行微调。可以查看 model hub 以查找您感兴趣的任务的微调版本。

请注意,该模型主要用于对使用整个(可能被掩盖)句子进行决策的任务进行微调,例如序列分类、标记分类或问答。对于文本生成等任务,您应该查看类似GPT2的模型。

使用方法

以下是如何在PyTorch中使用此模型来获取给定文本的特征:

from transformers import XLNetTokenizer, XLNetModel

tokenizer = XLNetTokenizer.from_pretrained('xlnet-base-cased')
model = XLNetModel.from_pretrained('xlnet-base-cased')

inputs = tokenizer("Hello, my dog is cute", return_tensors="pt")
outputs = model(**inputs)

last_hidden_states = outputs.last_hidden_state

BibTeX条目和引用信息

@article{DBLP:journals/corr/abs-1906-08237,
  author    = {Zhilin Yang and
               Zihang Dai and
               Yiming Yang and
               Jaime G. Carbonell and
               Ruslan Salakhutdinov and
               Quoc V. Le},
  title     = {XLNet: Generalized Autoregressive Pretraining for Language Understanding},
  journal   = {CoRR},
  volume    = {abs/1906.08237},
  year      = {2019},
  url       = {http://arxiv.org/abs/1906.08237},
  eprinttype = {arXiv},
  eprint    = {1906.08237},
  timestamp = {Mon, 24 Jun 2019 17:28:45 +0200},
  biburl    = {https://dblp.org/rec/journals/corr/abs-1906-08237.bib},
  bibsource = {dblp computer science bibliography, https://dblp.org}
}