模型:

NYTK/named-entity-recognition-nerkor-hubert-hungarian

英文

用huBERT进行的匈牙利命名实体识别模型

如需更多模型、脚本和详细信息,请参阅 our demo site

  • 使用的预训练模型:SZTAKI-HLT/hubert-base-cc
  • NYTK-NerKor 上微调
  • 命名实体类别为:PER、LOC、MISC、ORG

限制

  • max_seq_length = 128

结果

F-score:90.18%

使用流程

from transformers import pipeline

ner = pipeline(task="ner", model="NYTK/named-entity-recognition-nerkor-hubert-hungarian")
input_text = "A Kovácsné Nagy Erzsébet nagyon jól érzi magát a Nokiánál, azonban a Németországból érkezett Kovács Péter nehezen boldogul a beilleszkedéssel."

print(ner(input_text, aggregation_strategy="simple"))

引用

如果您使用此模型,请引用以下论文:

@inproceedings {yang-language-models,
    title = {Training language models with low resources: RoBERTa, BART and ELECTRA experimental models for Hungarian},
    booktitle = {Proceedings of 12th IEEE International Conference on Cognitive Infocommunications (CogInfoCom 2021)},
    year = {2021},
    publisher = {IEEE},
    address = {Online},
    author = {Yang, Zijian Győző and Váradi, Tamás},
    pages = {279--285}
}