模型:
HooshvareLab/bert-fa-zwnj-base
一个基于Transformer的波斯语文本理解模型
波斯语的BERT v3.0新版本今天发布,并且可以处理波斯语书写中的零宽度非连接字符。此外,该模型还使用了新类型的语料库进行训练,并采用了新的词汇表。
ParsBERT 是基于Google的BERT架构的单语言模型。该模型使用大规模波斯语语料库进行预训练,包含了多种写作风格和主题(例如科学、小说、新闻)的文本。
ParsBERT 论文: arXiv:2005.12515
在出版物中请引用如下内容:
@article{ParsBERT, title={ParsBERT: Transformer-based Model for Persian Language Understanding}, author={Mehrdad Farahani, Mohammad Gharachorloo, Marzieh Farahani, Mohammad Manthouri}, journal={ArXiv}, year={2020}, volume={abs/2005.12515} }
在 ParsBERT Issues Repo 上发布 Github 问题。