模型:
HooshvareLab/bert-fa-base-uncased-sentiment-digikala
波斯语理解的基于Transformer的模型
我们在新的波斯语语料库上重新构建了词汇表,并对ParsBERT v1.1进行了微调,以便为在其他领域使用ParsBERT提供一些功能!有关先前和当前模型的最新信息,请关注 ParsBERT repo。
它旨在基于情感偏见对文本(例如评论)进行分类。我们对此任务进行了三个著名数据集的测试:Digikala用户评论、SnappFood用户评论以及DeepSentiPers的二进制形式和多形式类型。
Digikala用户评论由 Open Data Mining Program (ODMP) 提供。该数据集包含62,321条用户评论,分为三类:
Label | # |
---|---|
no_idea | 10394 |
not_recommended | 15885 |
recommended | 36042 |
下载 您可以从 here 下载数据集
下表总结了ParsBERT与其他模型和架构相比所获得的F1分数。
Dataset | ParsBERT v2 | ParsBERT v1 | mBERT | DeepSentiPers |
---|---|---|---|---|
Digikala User Comments | 81.72 | 81.74* | 80.74 | - |
Task | Notebook |
---|---|
Sentiment Analysis | 1234321
请在出版物中引用如下:
@article{ParsBERT, title={ParsBERT: Transformer-based Model for Persian Language Understanding}, author={Mehrdad Farahani, Mohammad Gharachorloo, Marzieh Farahani, Mohammad Manthouri}, journal={ArXiv}, year={2020}, volume={abs/2005.12515} }
在 ParsBERT Issues repo上发布Github问题。