模型:
w11wo/indonesian-roberta-base-indolem-sentiment-classifier-fold-0
印尼 RoBERTa 基础 IndoLEM 情感分类器是基于 RoBERTa 模型的情感文本分类模型。该模型最初是基于预训练的 Indonesian RoBERTa Base 模型,然后在 indolem 的数据集(由印尼推特和酒店评论组成,Koto et al., 2020)上进行微调。
原始数据集作者提供了分组,进行了 5 折交叉验证实验。此模型是在第 0 折上进行训练的。您可以在相应的链接中找到在第 fold 0 , fold 1 , fold 2 , fold 3 和 fold 4 上训练的模型。
在第 0 折上,模型在开发/验证集上的 F1 值为 86.42%,在测试集上为 83.12%。在所有 5 折上,模型在开发/验证集上的平均 F1 值为 84.14%,在测试集上为 84.64%。
该模型使用了 Hugging Face 的 Trainer 类(来自 Transformers 库)进行训练。在训练期间,使用的是 PyTorch 作为后端框架,但该模型仍然与其他框架兼容。
Model | #params | Arch. | Training/Validation data (text) |
---|---|---|---|
indonesian-roberta-base-indolem-sentiment-classifier-fold-0 | 124M | RoBERTa Base | IndoLEM 's Sentiment Analysis |
模型训练了 10 个时期,并在最后加载了最佳模型。
Epoch | Training Loss | Validation Loss | Accuracy | F1 | Precision | Recall |
---|---|---|---|---|---|---|
1 | 0.563500 | 0.420457 | 0.796992 | 0.626728 | 0.680000 | 0.581197 |
2 | 0.293600 | 0.281360 | 0.884712 | 0.811475 | 0.779528 | 0.846154 |
3 | 0.163000 | 0.267922 | 0.904762 | 0.844262 | 0.811024 | 0.880342 |
4 | 0.090200 | 0.335411 | 0.899749 | 0.838710 | 0.793893 | 0.888889 |
5 | 0.065200 | 0.462526 | 0.897243 | 0.835341 | 0.787879 | 0.888889 |
6 | 0.039200 | 0.423001 | 0.912281 | 0.859438 | 0.810606 | 0.914530 |
7 | 0.025300 | 0.452100 | 0.912281 | 0.859438 | 0.810606 | 0.914530 |
8 | 0.010400 | 0.525200 | 0.914787 | 0.855932 | 0.848739 | 0.863248 |
9 | 0.007100 | 0.513585 | 0.909774 | 0.850000 | 0.829268 | 0.871795 |
10 | 0.007200 | 0.537254 | 0.917293 | 0.864198 | 0.833333 | 0.897436 |
from transformers import pipeline pretrained_name = "w11wo/indonesian-roberta-base-indolem-sentiment-classifier-fold-0" nlp = pipeline( "sentiment-analysis", model=pretrained_name, tokenizer=pretrained_name ) nlp("Pelayanan hotel ini sangat baik.")
请考虑来自预训练的 RoBERTa 模型和 IndoLEM 的情感分析数据集中可能带入结果的偏见。
印尼 RoBERTa 基础 IndoLEM 情感分类器由 Wilson Wongso 训练和评估。所有的计算和开发都是在 Google Colaboratory 上使用免费的 GPU 访问完成的。