英文

西班牙RoBERTa-base训练于BNE并针对CAPITEL词性(POS)数据集进行微调

内容目录

点击展开
  • 模型描述
  • 用途和限制
  • 如何使用
  • 限制和偏见
  • 训练
  • 训练
    • 训练数据
    • 训练过程
  • 评估
  • 评估
    • 变量和指标
    • 评估结果
  • 附加信息
    • 作者
    • 联系信息
    • 版权
    • 许可信息
    • 资助
    • 引用信息
    • 免责声明

模型描述

roberta-base-bne-capitel-pos 是用于西班牙语的词性标注(POS)模型,是从 roberta-base-bne 模型进行微调的,该模型是基于最大的西班牙语语料库进行预训练的,总共有570GB的干净且去重的文本,为此次工作处理,并编译自 National Library of Spain (Biblioteca Nacional de España) 自2009年至2019年的网络爬虫获取的数据。

用途和限制

roberta-base-bne-capitel-pos 模型可以用于对文本进行词性标注(POS)。由于其训练数据集的限制,该模型可能无法很好地适用于所有用例。

如何使用

以下是如何使用此模型的方法:

from transformers import pipeline
from pprint import pprint

nlp = pipeline("token-classification", model="PlanTL-GOB-ES/roberta-base-bne-capitel-pos")
example = "El alcalde de Vigo, Abel Caballero, ha comenzado a colocar las luces de Navidad en agosto."

pos_results = nlp(example)
pprint(pos_results)

限制和偏见

在提交时,没有采取措施来估计模型中的偏见。但是,我们非常清楚我们的模型可能存在偏差,因为语料库是使用多个网页源进行爬取技术收集的。我们打算未来在这些领域开展研究,如果完成,将更新此模型卡。

训练

使用的数据集是 CAPITEL competition at IberLEF 2020 的数据集(子任务2)。

训练过程

该模型的批量大小为32,学习率为5e-5,训练了5个epochs。然后使用相应开发集中的下游任务指标选择了最佳检查点,然后在测试集上进行了评估。

评估

变量和指标

该模型是通过最大化F1分数进行微调的。

评估结果

我们将 roberta-base-bne-capitel-pos 模型与标准的多语言和单语基线模型在CAPITEL-POS测试集上进行了评估:

Model CAPITEL-POS (F1)
roberta-large-bne-capitel-pos 98.56
roberta-base-bne-capitel-pos 98.46
BETO 98.36
mBERT 98.39
BERTIN 98.47
ELECTRA 98.16

更多详细信息,请查看官方 GitHub repository 中的微调和评估脚本。

附加信息

作者

巴塞罗那超级计算中心(Barcelona Supercomputing Center)的文本挖掘单元(TeMU)( bsc-temu@bsc.es )

联系信息

如需更多信息,请发送电子邮件至 plantl-gob-es@bsc.es

版权

西班牙数字化和人工智能国家秘书处(SEDIA)版权所有(2022年)

许可信息

Apache License, Version 2.0

资助

此工作是在西班牙数字化和人工智能国家秘书处(SEDIA)的计划TL框架下资助的。

引用信息

如果您使用此模型,请引用我们的 paper

@article{,
   abstract = {We want to thank the National Library of Spain for such a large effort on the data gathering and the Future of Computing Center, a
Barcelona Supercomputing Center and IBM initiative (2020). This work was funded by the Spanish State Secretariat for Digitalization and Artificial
Intelligence (SEDIA) within the framework of the Plan-TL.},
   author = {Asier Gutiérrez Fandiño and Jordi Armengol Estapé and Marc Pàmies and Joan Llop Palao and Joaquin Silveira Ocampo and Casimiro Pio Carrino and Carme Armentano Oller and Carlos Rodriguez Penagos and Aitor Gonzalez Agirre and Marta Villegas},
   doi = {10.26342/2022-68-3},
   issn = {1135-5948},
   journal = {Procesamiento del Lenguaje Natural},
   keywords = {Artificial intelligence,Benchmarking,Data processing.,MarIA,Natural language processing,Spanish language modelling,Spanish language resources,Tractament del llenguatge natural (Informàtica),Àrees temàtiques de la UPC::Informàtica::Intel·ligència artificial::Llenguatge natural},
   publisher = {Sociedad Española para el Procesamiento del Lenguaje Natural},
   title = {MarIA: Spanish Language Models},
   volume = {68},
   url = {https://upcommons.upc.edu/handle/2117/367156#.YyMTB4X9A-0.mendeley},
   year = {2022},
}

免责声明

本仓库中发布的模型旨在提供一般用途,并可供第三方使用。这些模型可能存在偏见和/或其他不希望的扭曲。

当第三方使用任何这些模型(或基于这些模型的系统)部署或提供系统和/或服务给其他方,或成为这些模型的用户时,他们应注意自己有责任降低使用所带来的风险,并始终遵守适用的法规,包括关于使用人工智能的法规。

对于第三方使用这些模型所产生的任何结果,模型的所有者(SEDIA - 数字化和人工智能国家秘书处)和创建者(BSC - 巴塞罗那超级计算中心)均不承担任何责任。

Los modelos publicados en este repositorio tienen una finalidad generalista y están a disposición de terceros. Estos modelos pueden tener sesgos y/u otro tipo de distorsiones indeseables.

Cuando terceros desplieguen o proporcionen sistemas y/o servicios a otras partes usando alguno de estos modelos (o utilizando sistemas basados en estos modelos) o se conviertan en usuarios de los modelos, deben tener en cuenta que es su responsabilidad mitigar los riesgos derivados de su uso y, en todo caso, cumplir con la normativa aplicable, incluyendo la normativa en materia de uso de inteligencia artificial.

En ningún caso el propietario de los modelos (SEDIA – Secretaría de Estado de Digitalización e Inteligencia Artificial) ni el creador (BSC – Barcelona Supercomputing Center) serán responsables de los resultados derivados del uso que hagan terceros de estos modelos.