模型:

HooshvareLab/bert-fa-zwnj-base

英文

ParsBERT (v3.0)

一个基于Transformer的波斯语文本理解模型

波斯语的BERT v3.0新版本今天发布,并且可以处理波斯语书写中的零宽度非连接字符。此外,该模型还使用了新类型的语料库进行训练,并采用了新的词汇表。

简介

ParsBERT 是基于Google的BERT架构的单语言模型。该模型使用大规模波斯语语料库进行预训练,包含了多种写作风格和主题(例如科学、小说、新闻)的文本。

ParsBERT 论文: arXiv:2005.12515

BibTeX引用和引文信息

在出版物中请引用如下内容:

@article{ParsBERT,
    title={ParsBERT: Transformer-based Model for Persian Language Understanding},
    author={Mehrdad Farahani, Mohammad Gharachorloo, Marzieh Farahani, Mohammad Manthouri},
    journal={ArXiv},
    year={2020},
    volume={abs/2005.12515}
}

有问题吗?

ParsBERT Issues Repo 上发布 Github 问题。