模型:

IDEA-CCNL/Erlangshen-Roberta-330M-Similarity

英文

Erlangshen-Roberta-330M-Similarity

简介 简介

中文的RoBERTa-wwm-ext-large在数个相似度任务微调后的版本

这是中文RoBERTa-wwm-ext-large模型在几个相似度数据集上微调的版本。

模型分类模型分词法

需求 Demand 任务 Task 系列 Series 模型 Model 参数 Parameter 额外 Extra
通用 General 自然语言理解 NLU 二郎神 Erlangshen Roberta 330M 中文-相似度 Similarity

模型信息模特信息

基于 chinese-roberta-wwm-ext-large ,我们在收集的20个中文领域的改写数据集,总计2773880个样本上微调了一个Similarity版本。

基于 chinese-roberta-wwm-ext-large ,我们在20个中文改写数据集上微调了一个相似度版本,共计2,773,880个样本。

下游效果下游性能

Model BQ BUSTM AFQMC
Erlangshen-Roberta-110M-Similarity 85.41 95.18 81.72
Erlangshen-Roberta-330M-Similarity 86.21 99.29 93.89
Erlangshen-MegatronBert-1.3B-Similarity 86.31 - -

使用使用

from transformers import BertForSequenceClassification
from transformers import BertTokenizer
import torch

tokenizer=BertTokenizer.from_pretrained('IDEA-CCNL/Erlangshen-Roberta-330M-Similarity')
model=BertForSequenceClassification.from_pretrained('IDEA-CCNL/Erlangshen-Roberta-330M-Similarity')

texta='今天的饭不好吃'
textb='今天心情不好'

output=model(torch.tensor([tokenizer.encode(texta,textb)]))
print(torch.nn.functional.softmax(output.logits,dim=-1))

引用引文

如果您在您的工作中使用了我们的模型,可以引用我们的 论文

如果您正在使用此资源进行工作,请引用我们的 paper

@article{fengshenbang,
  author    = {Jiaxing Zhang and Ruyi Gan and Junjie Wang and Yuxiang Zhang and Lin Zhang and Ping Yang and Xinyu Gao and Ziwei Wu and Xiaoqun Dong and Junqing He and Jianheng Zhuo and Qi Yang and Yongfeng Huang and Xiayu Li and Yanghan Wu and Junyu Lu and Xinyu Zhu and Weifeng Chen and Ting Han and Kunhao Pan and Rui Wang and Hao Wang and Xiaojun Wu and Zhongshen Zeng and Chongpei Chen},
  title     = {Fengshenbang 1.0: Being the Foundation of Chinese Cognitive Intelligence},
  journal   = {CoRR},
  volume    = {abs/2209.02970},
  year      = {2022}
}

也可以引用我们的 网站

也可以引用我们的 website

@misc{Fengshenbang-LM,
  title={Fengshenbang-LM},
  author={IDEA-CCNL},
  year={2021},
  howpublished={\url{https://github.com/IDEA-CCNL/Fengshenbang-LM}},
}