英文

vietnamese-ner

这个模型是在VLSP 2018数据集上通过对 NlpHUST/electra-base-vn 进行微调得到的。它在评估集上取得了以下结果:

  • 损失: 0.0580
  • 位置精确率: 0.9353
  • 位置召回率: 0.9377
  • 位置F1值: 0.9365
  • 位置数: 2360
  • 其他实体精确率: 0.5660
  • 其他实体召回率: 0.6897
  • 其他实体F1值: 0.6218
  • 其他实体数: 174
  • 组织精确率: 0.8610
  • 组织召回率: 0.9068
  • 组织F1值: 0.8833
  • 组织数: 1878
  • 个人精确率: 0.9692
  • 个人召回率: 0.9637
  • 个人F1值: 0.9664
  • 个人数: 2121
  • 总体精确率: 0.9122
  • 总体召回率: 0.9307
  • 总体F1值: 0.9214
  • 总体准确率: 0.9907

模型描述

需要更多信息

如何使用

您可以使用Transformers NER Pipeline模块使用此模型。

from transformers import AutoTokenizer, AutoModelForTokenClassification
from transformers import pipeline

tokenizer = AutoTokenizer.from_pretrained("NlpHUST/ner-vietnamese-electra-base")
model = AutoModelForTokenClassification.from_pretrained("NlpHUST/ner-vietnamese-electra-base")

nlp = pipeline("ner", model=model, tokenizer=tokenizer)
example = "Liên quan vụ việc CSGT bị tố đánh dân, trúng một cháu nhỏ đang ngủ, đang lan truyền trên mạng xã hội, Đại tá Nguyễn Văn Tảo, Phó Giám đốc Công an tỉnh Tiền Giang vừa có cuộc họp cùng Chỉ huy Công an huyện Châu Thành và một số đơn vị nghiệp vụ cấp tỉnh để chỉ đạo làm rõ thông tin."

ner_results = nlp(example)
print(ner_results)

预期用途和限制

需要更多信息

训练和评估数据

需要更多信息

训练过程

训练超参数

训练过程中使用了以下超参数:

  • 学习率: 5e-05
  • 训练批量大小: 16
  • 评估批量大小: 4
  • 种子: 42
  • 优化器: Adam,beta值为(0.9,0.999),epsilon为1e-08
  • 学习率调度器类型: 线性
  • 训练轮数: 10.0

框架版本

  • Transformers 4.20.1
  • Pytorch 1.8.0+cu111
  • Datasets 2.4.0
  • Tokenizers 0.12.1

联系信息

如需与该项目相关的个人交流,请联系Nha Nguyen Van(nha282@gmail.com)。