模型:

IDEA-CCNL/Erlangshen-Longformer-110M

英文

Erlangshen-Longformer-110M

简介 Brief Introduction

善于处理长文本,采用旋转位置编码的中文版1.1亿参数的Longformer-base

该中文版Longformer-base(110M)采用旋转位置编码,能够处理较长的文本。

模型分类 Model Taxonomy

需求 Demand 任务 Task 系列 Series 模型 Model 参数 Parameter 额外 Extra
通用 General 自然语言理解 NLU 二郎神 Erlangshen Longformeer 110M 中文 Chinese

模型信息 Model Information

遵循Longformer-base的设计,我们基于 chinese_roformer_L-12_H-768_A-12 ,在悟道语料库(180 GB版本)上进行了继续预训练。特别的,我们采用旋转位置嵌入(RoPE)来避免预训练语料库的不均匀序列长度问题。

遵循Longformer-base的设计,我们在悟道语料库(180 GB版本)上继续预训练,使用了中文版Longformer-base的1.1亿参数。特别的,我们采用了旋转位置嵌入(RoPE)来解决预训练语料库中序列长度不均衡的问题。

使用 Usage

因为 transformers 库中是没有Longformer-base相关的模型结构的,所以你可以在我们的 Fengshenbang-LM 中找到并且运行代码。

由于 transformers 库中没有Longformer-base相关的模型结构,请在我们的 Fengshenbang-LM 中查找并运行代码。

git clone https://github.com/IDEA-CCNL/Fengshenbang-LM.git

加载模型 Loading Models

from fengshen import LongformerModel    
from fengshen import LongformerConfig
from transformers import BertTokenizer

tokenizer = BertTokenizer.from_pretrained("IDEA-CCNL/Erlangshen-Longformer-110M")
config = LongformerConfig.from_pretrained("IDEA-CCNL/Erlangshen-Longformer-110M")
model = LongformerModel.from_pretrained("IDEA-CCNL/Erlangshen-Longformer-110M")

引用 Citation

如果您在您的工作中使用了我们的模型,可以引用我们的 论文

如果您在工作中使用了我们的模型,请引用我们的 论文

@article{fengshenbang,
  author    = {Jiaxing Zhang and Ruyi Gan and Junjie Wang and Yuxiang Zhang and Lin Zhang and Ping Yang and Xinyu Gao and Ziwei Wu and Xiaoqun Dong and Junqing He and Jianheng Zhuo and Qi Yang and Yongfeng Huang and Xiayu Li and Yanghan Wu and Junyu Lu and Xinyu Zhu and Weifeng Chen and Ting Han and Kunhao Pan and Rui Wang and Hao Wang and Xiaojun Wu and Zhongshen Zeng and Chongpei Chen},
  title     = {Fengshenbang 1.0: Being the Foundation of Chinese Cognitive Intelligence},
  journal   = {CoRR},
  volume    = {abs/2209.02970},
  year      = {2022}
}

也可以引用我们的 网站 :

也可以引用我们的 网站

@misc{Fengshenbang-LM,
  title={Fengshenbang-LM},
  author={IDEA-CCNL},
  year={2021},
  howpublished={\url{https://github.com/IDEA-CCNL/Fengshenbang-LM}},
}