模型:
xlnet-large-cased
XLNet模型是在英语语言上预训练的。它是由杨等人在 XLNet: Generalized Autoregressive Pretraining for Language Understanding 年的论文中引入并首次发布于 this repository 。
免责声明:发布XLNet的团队没有为此模型编写模型卡,因此这个模型卡是由Hugging Face团队编写的。
XLNet是一种基于新颖的广义排列语言建模目标的无监督语言表示学习方法。此外,XLNet采用Transformer-XL作为骨干模型,在涉及长上下文的语言任务中表现出色。总体而言,XLNet在包括问题回答、自然语言推理、情感分析和文档排序在内的各种下游语言任务中实现了最先进的结果。
该模型主要用于微调下游任务。请查看 model hub 以寻找您感兴趣的任务的微调版本。
请注意,该模型主要用于在使用整个句子(可能被掩盖)进行决策的任务上进行微调,例如序列分类、标记分类或问题回答。对于文本生成等任务,您应该参考GPT2等模型。
以下是如何在PyTorch中使用此模型获取给定文本特征的方法:
from transformers import XLNetTokenizer, XLNetModel tokenizer = XLNetTokenizer.from_pretrained('xlnet-large-cased') model = XLNetModel.from_pretrained('xlnet-large-cased') inputs = tokenizer("Hello, my dog is cute", return_tensors="pt") outputs = model(**inputs) last_hidden_states = outputs.last_hidden_state
@article{DBLP:journals/corr/abs-1906-08237, author = {Zhilin Yang and Zihang Dai and Yiming Yang and Jaime G. Carbonell and Ruslan Salakhutdinov and Quoc V. Le}, title = {XLNet: Generalized Autoregressive Pretraining for Language Understanding}, journal = {CoRR}, volume = {abs/1906.08237}, year = {2019}, url = {http://arxiv.org/abs/1906.08237}, eprinttype = {arXiv}, eprint = {1906.08237}, timestamp = {Mon, 24 Jun 2019 17:28:45 +0200}, biburl = {https://dblp.org/rec/journals/corr/abs-1906-08237.bib}, bibsource = {dblp computer science bibliography, https://dblp.org} }