模型:

classla/bcms-bertic-ner

英文

在波斯尼亚、克罗地亚、黑山和塞尔维亚(BCMS)的命名实体识别任务中,经过细调的 BERTić * [bert-ich] /bɜrtitʃ/ 模型

* 模型的名称应该与以下事实相似:(1)该模型是在克罗地亚的萨格勒布进行训练的,这里的名字中以 -ić 结尾的增生形式(如 fotić, smajlić, hengić等)非常流行,(2)这些语言使用的大部分姓氏也以 -ić 结尾(同样具有增生形式的词源)。

这是一个针对命名实体识别任务(PER、LOC、ORG、MISC)进行细调的 BERTić 模型版本。细调过程使用了以下数据集:

  • hr500k 数据集,大小为 50 万个标记,标准的克罗地亚语
  • SETimes.SR 数据集,大小为 8.7 万个标记,标准的塞尔维亚语
  • ReLDI-hr 数据集,大小为 8.9 万个标记,互联网(推特)上的克罗地亚语
  • ReLDI-sr 数据集,大小为 9.2 万个标记,互联网(推特)上的塞尔维亚语

数据集中缺失的变音符号已经补充完整,并且标准数据还被额外增加了表示。在 dev 数据上获得的 F1 值(训练和测试数据合并为训练数据)为 91.38。有关 BERTić 模型在 NER 任务上每个数据集的更详细评估,请参阅 main model page

如果您使用此细调模型,请引用以下论文:

@inproceedings{ljubesic-lauc-2021-bertic,
    title = "{BERT}i{\'c} - The Transformer Language Model for {B}osnian, {C}roatian, {M}ontenegrin and {S}erbian",
    author = "Ljube{\v{s}}i{\'c}, Nikola  and Lauc, Davor",
    booktitle = "Proceedings of the 8th Workshop on Balto-Slavic Natural Language Processing",
    month = apr,
    year = "2021",
    address = "Kiyv, Ukraine",
    publisher = "Association for Computational Linguistics",
    url = "https://www.aclweb.org/anthology/2021.bsnlp-1.5",
    pages = "37--42",
}

在使用 simpletransformers 运行模型时,还必须设置标签的顺序。

from simpletransformers.ner import NERModel, NERArgs
model_args = NERArgs()
model_args.labels_list = ['B-LOC','B-MISC','B-ORG','B-PER','I-LOC','I-MISC','I-ORG','I-PER','O']
model = NERModel('electra', 'classla/bcms-bertic-ner', args=model_args)