模型:
PlanTL-GOB-ES/bsc-bio-ehr-es-cantemist
这是 bsc-bio-ehr-es 模型的微调版本,它是 RoBERTa 基础模型,并使用迄今为止已知的最大西班牙生物医学语料库进行了预训练,包括生物医学文档、临床病例和电子健康记录文档,共处理了11亿个干净且去重的文本单元。
有关语料库和训练的更多详细信息,请查看 bsc-bio-ehr-es 模型卡片。
在提交时,尚未采取措施来评估模型中嵌入的偏差。然而,我们完全意识到我们的模型可能存在偏差,因为这些语料库是使用多个网址的爬取技术收集的。我们打算将来在这些领域进行研究,如果完成,将更新此模型卡片。
使用的数据集是 CANTEMIST ,这是一个带有肿瘤形态学实体注释的NER数据集。有关更多信息,请查看 official website 。
F1分数:0.8340
有关评估详细信息,请访问我们的 GitHub repository 。
Barcelona Supercomputing Center(BSC)的文本挖掘单元(TeMU)( bsc-temu@bsc.es )
如需更多信息,请发送电子邮件至 plantl-gob-es@bsc.es
西班牙数字化和人工智能国家秘书处(SEDIA)(2022)版权所有
这项工作由西班牙数字化和人工智能国家秘书处(SEDIA)在Plan-TL框架下资助。
如果您使用了这些模型,请引用我们的工作:
@inproceedings{carrino-etal-2022-pretrained, title = "Pretrained Biomedical Language Models for Clinical {NLP} in {S}panish", author = "Carrino, Casimiro Pio and Llop, Joan and P{\`a}mies, Marc and Guti{\'e}rrez-Fandi{\~n}o, Asier and Armengol-Estap{\'e}, Jordi and Silveira-Ocampo, Joaqu{\'\i}n and Valencia, Alfonso and Gonzalez-Agirre, Aitor and Villegas, Marta", booktitle = "Proceedings of the 21st Workshop on Biomedical Language Processing", month = may, year = "2022", address = "Dublin, Ireland", publisher = "Association for Computational Linguistics", url = "https://aclanthology.org/2022.bionlp-1.19", doi = "10.18653/v1/2022.bionlp-1.19", pages = "193--199", abstract = "This work presents the first large-scale biomedical Spanish language models trained from scratch, using large biomedical corpora consisting of a total of 1.1B tokens and an EHR corpus of 95M tokens. We compared them against general-domain and other domain-specific models for Spanish on three clinical NER tasks. As main results, our models are superior across the NER tasks, rendering them more convenient for clinical NLP applications. Furthermore, our findings indicate that when enough data is available, pre-training from scratch is better than continual pre-training when tested on clinical tasks, raising an exciting research question about which approach is optimal. Our models and fine-tuning scripts are publicly available at HuggingFace and GitHub.", }
此存储库中发布的模型旨在用于一般用途,并可提供给第三方使用。这些模型可能存在偏差和/或任何其他不可取的失真。
当第三方使用任何这些模型(或基于这些模型的系统)部署或提供系统和/或服务给其他方或成为模型的用户时,他们应注意,他们有责任减轻其使用所带来的风险,并在任何情况下遵守适用法规,包括关于使用人工智能的法规。
无论模型的所有者(SEDIA-数字化和人工智能国家秘书处)还是创建者(BSC-巴塞罗那超级计算中心)都不对第三方对这些模型的使用产生的结果承担任何责任。
Los modelos publicados en este repositorio tienen una finalidad generalista y están a disposición de terceros. Estos modelos pueden tener sesgos y/u otro tipo de distorsiones indeseables.
Cuando terceros desplieguen o proporcionen sistemas y/o servicios a otras partes usando alguno de estos modelos (o utilizando sistemas basados en estos modelos) o se conviertan en usuarios de los modelos, deben tener en cuenta que es su responsabilidad mitigar los riesgos derivados de su uso y, en todo caso, cumplir con la normativa aplicable, incluyendo la normativa en materia de uso de inteligencia artificial.
En ningún caso el propietario de los modelos (SEDIA – Secretaría de Estado de Digitalización e Inteligencia Artificial) ni el creador (BSC – Barcelona Supercomputing Center) serán responsables de los resultados derivados del uso que hagan terceros de estos modelos.