模型:
KoboldAI/fairseq-dense-355M
这是来自Artetxe等人论文“ Efficient Large Scale Language Modeling with Mixtures of Experts ”的原始稠密的355M参数模型的Hugging Face transformers兼容转换。请参考原始模型卡片,网址为 https://github.com/facebookresearch/fairseq/blob/main/examples/moe_lm/model_card.md 。