模型:
KoichiYasuoka/bert-base-japanese-luw-upos
这是一个在日本维基百科文本上进行POS标注和依存分析的BERT模型,来自于 bert-base-japanese-char-extended . 每个长单位词都被标记为 UPOS (通用词性) 和 FEATS .
import torch from transformers import AutoTokenizer,AutoModelForTokenClassification tokenizer=AutoTokenizer.from_pretrained("KoichiYasuoka/bert-base-japanese-luw-upos") model=AutoModelForTokenClassification.from_pretrained("KoichiYasuoka/bert-base-japanese-luw-upos") s="国境の長いトンネルを抜けると雪国であった。" p=[model.config.id2label[q] for q in torch.argmax(model(tokenizer.encode(s,return_tensors="pt"))["logits"],dim=2)[0].tolist()[1:-1]] print(list(zip(s,p)))
或者
import esupar nlp=esupar.load("KoichiYasuoka/bert-base-japanese-luw-upos") print(nlp("国境の長いトンネルを抜けると雪国であった。"))
安岡孝一: Transformersと国語研長単位による日本語係り受け解析モデルの製作 , 情報処理学会研究報告, Vol.2022-CH-128, No.7 (2022年2月), pp.1-8.
esupar : 使用BERT/RoBERTa/DeBERTa模型的分词器、词性标注器和依存分析器