英文

BERT BASE (cased)

在保加利亚语上通过掩码语言建模(MLM)目标进行预训练的模型。该模型首次在 this repository 中引入并发布。该模型区分大小写:bulgarian 和 Bulgarian 是有区别的。

模型描述

该模型的训练方式与 RuBert 类似,其中多语言Bert被适应为俄语。

训练数据来自于 OSCAR Chitanka Wikipedia 的保加利亚文本。

如何使用

以下是在PyTorch中使用此模型的方法:

>>> from transformers import pipeline
>>> 
>>> model = pipeline(
>>>     'fill-mask',
>>>     model='rmihaylov/bert-base-bg',
>>>     tokenizer='rmihaylov/bert-base-bg',
>>>     device=0,
>>>     revision=None)
>>> output = model("София е [MASK] на България.")
>>> print(output)

[{'score': 0.12665307521820068,
  'sequence': 'София е  столица на България.',
  'token': 2659,
  'token_str': 'столица'},
 {'score': 0.07470757514238358,
  'sequence': 'София е Перлата на България.',
  'token': 102146,
  'token_str': 'Перлата'},
 {'score': 0.06786204129457474,
  'sequence': 'София е  Столицата на България.',
  'token': 45495,
  'token_str': 'Столицата'},
 {'score': 0.05533991754055023,
  'sequence': 'София е  Столица на България.',
  'token': 100524,
  'token_str': 'Столица'},
 {'score': 0.05485989898443222,
  'sequence': 'София е  столицата на България.',
  'token': 2294,
  'token_str': 'столицата'}]