英文

bert-italian-finetuned-ner

这个模型是在wiki_neural数据集上对 dbmdz/bert-base-italian-cased 模型进行微调的版本。它在评估集上取得了以下结果:

  • 损失:0.0361
  • 精确度:0.9438
  • 召回率:0.9542
  • F1值:0.9490
  • 准确度:0.9918

模型描述

这是一个针对意大利语进行的令牌分类实验,用于命名实体识别(NER)。

示例

from transformers import pipeline
ner_pipeline = pipeline("ner", model="nickprock/bert-italian-finetuned-ner", aggregation_strategy="simple")
text = "La sede storica della Olivetti è ad Ivrea"
output = ner_pipeline(text)

目标和限制

该模型可用于令牌分类,特别是NER。它经过了对意大利语的微调。

训练和评估数据

使用的数据集是 wikiann

训练过程

训练超参数

训练过程中使用了以下超参数:

  • 学习率:2e-05
  • 训练批大小:8
  • 评估批大小:8
  • 随机种子:42
  • 优化器:Adam,参数为betas=(0.9,0.999)和epsilon=1e-08
  • 学习率调度器类型:线性
  • 训练轮数:3

训练结果

Training Loss Epoch Step Validation Loss Precision Recall F1 Accuracy
0.0297 1.0 11050 0.0323 0.9324 0.9420 0.9372 0.9908
0.0173 2.0 22100 0.0324 0.9445 0.9514 0.9479 0.9915
0.0057 3.0 33150 0.0361 0.9438 0.9542 0.9490 0.9918

框架版本

  • Transformers 4.27.3
  • Pytorch 1.13.0
  • Datasets 2.1.0
  • Tokenizers 0.13.2