模型:

w11wo/indonesian-roberta-base-indolem-sentiment-classifier-fold-0

英文

印尼 RoBERTa 基础 IndoLEM 情感分类器

印尼 RoBERTa 基础 IndoLEM 情感分类器是基于 RoBERTa 模型的情感文本分类模型。该模型最初是基于预训练的 Indonesian RoBERTa Base 模型,然后在 indolem 的数据集(由印尼推特和酒店评论组成,Koto et al., 2020)上进行微调。

原始数据集作者提供了分组,进行了 5 折交叉验证实验。此模型是在第 0 折上进行训练的。您可以在相应的链接中找到在第 fold 0 fold 1 fold 2 fold 3 fold 4 上训练的模型。

在第 0 折上,模型在开发/验证集上的 F1 值为 86.42%,在测试集上为 83.12%。在所有 5 折上,模型在开发/验证集上的平均 F1 值为 84.14%,在测试集上为 84.64%。

该模型使用了 Hugging Face 的 Trainer 类(来自 Transformers 库)进行训练。在训练期间,使用的是 PyTorch 作为后端框架,但该模型仍然与其他框架兼容。

模型

Model #params Arch. Training/Validation data (text)
indonesian-roberta-base-indolem-sentiment-classifier-fold-0 124M RoBERTa Base IndoLEM 's Sentiment Analysis

评估结果

模型训练了 10 个时期,并在最后加载了最佳模型。

Epoch Training Loss Validation Loss Accuracy F1 Precision Recall
1 0.563500 0.420457 0.796992 0.626728 0.680000 0.581197
2 0.293600 0.281360 0.884712 0.811475 0.779528 0.846154
3 0.163000 0.267922 0.904762 0.844262 0.811024 0.880342
4 0.090200 0.335411 0.899749 0.838710 0.793893 0.888889
5 0.065200 0.462526 0.897243 0.835341 0.787879 0.888889
6 0.039200 0.423001 0.912281 0.859438 0.810606 0.914530
7 0.025300 0.452100 0.912281 0.859438 0.810606 0.914530
8 0.010400 0.525200 0.914787 0.855932 0.848739 0.863248
9 0.007100 0.513585 0.909774 0.850000 0.829268 0.871795
10 0.007200 0.537254 0.917293 0.864198 0.833333 0.897436

如何使用

作为文本分类器

from transformers import pipeline

pretrained_name = "w11wo/indonesian-roberta-base-indolem-sentiment-classifier-fold-0"

nlp = pipeline(
    "sentiment-analysis",
    model=pretrained_name,
    tokenizer=pretrained_name
)

nlp("Pelayanan hotel ini sangat baik.")

免责声明

请考虑来自预训练的 RoBERTa 模型和 IndoLEM 的情感分析数据集中可能带入结果的偏见。

作者

印尼 RoBERTa 基础 IndoLEM 情感分类器由 Wilson Wongso 训练和评估。所有的计算和开发都是在 Google Colaboratory 上使用免费的 GPU 访问完成的。