模型:

ckiplab/bert-base-han-chinese

英文

CKIP BERT Base中文古代语言

使用掩饰语言模型化(MLM)目标的预训练模型。

主页

训练数据集

数据集的版权属于中央研究院语言学研究所。

贡献者

  • CKIP 处的林金东(Chin-Tung Lin)

用法

  • 在您的脚本中使用我们的模型

    from transformers import (
      AutoTokenizer,
      AutoModel,
    )
    
    tokenizer = AutoTokenizer.from_pretrained("ckiplab/bert-base-han-chinese")
    model = AutoModel.from_pretrained("ckiplab/bert-base-han-chinese")
    
  • 用于推理的模型

    >>> from transformers import pipeline
    >>> unmasker = pipeline('fill-mask', model='ckiplab/bert-base-han-chinese')
    >>> unmasker("黎[MASK]於變時雍。")
    
    [{'sequence': '黎 民 於 變 時 雍 。',
    'score': 0.14885780215263367,
    'token': 3696,
    'token_str': '民'},
    {'sequence': '黎 庶 於 變 時 雍 。',
    'score': 0.0859643816947937,
    'token': 2433,
    'token_str': '庶'},
    {'sequence': '黎 氏 於 變 時 雍 。',
    'score': 0.027848130092024803,
    'token': 3694,
    'token_str': '氏'},
    {'sequence': '黎 人 於 變 時 雍 。',
    'score': 0.023678112775087357,
    'token': 782,
    'token_str': '人'},
    {'sequence': '黎 生 於 變 時 雍 。',
    'score': 0.018718384206295013,
    'token': 4495,
    'token_str': '生'}]