英文

plT5 Base

plT5模型是基于T5的语言模型,训练采用了波兰语语料库。该模型针对T5去噪目标进行了优化。

语料库

plT5模型训练使用了波兰语的六个不同语料库。

Corpus Tokens Documents
1232321 3243M 7.9M
1233321 2641M 7.0M
1234321 1357M 3.9M
1235321 1056M 1.1M
1236321 260M 1.4M
1237321 41M 5.5k

分词器

训练数据集使用了subword进行分词,采用了50k个token大小的sentencepiece unigram模型。

使用方法

示例代码:

from transformers import AutoTokenizer, AutoModel

tokenizer = AutoTokenizer.from_pretrained("allegro/plt5-base")
model = AutoModel.from_pretrained("allegro/plt5-base")

许可协议

CC BY 4.0

引用

如果您使用了该模型,请引用以下论文:

@article{chrabrowa2022evaluation,
  title={Evaluation of Transfer Learning for Polish with a Text-to-Text Model},
  author={Chrabrowa, Aleksandra and Dragan, {\L}ukasz and Grzegorczyk, Karol and Kajtoch, Dariusz and Koszowski, Miko{\l}aj and Mroczkowski, Robert and Rybak, Piotr},
  journal={arXiv preprint arXiv:2205.08808},
  year={2022}
}

作者

该模型由 Machine Learning Research Team at Allegro Linguistic Engineering Group at Institute of Computer Science, Polish Academy of Sciences 训练。

您可以通过klejbenchmark@allegro.pl与我们联系。