模型:
ydshieh/bert-base-uncased-yelp-polarity
这个 bert-base-uncased 模型通过 TextAttack 和 yelp_polarity 数据集进行了微调,数据集是使用 nlp 库加载的。该模型进行了5个epochs的微调,批量大小为16,学习率为5e-05,最大序列长度为256。由于这是一个分类任务,模型使用交叉熵损失函数进行训练。模型在这个任务中取得的最佳得分是0.9699473684210527,该得分是通过在第4个epoch之后在评估集上计算得到的准确率。
更多信息,请查看 TextAttack on Github 。