模型:
KoboldAI/fairseq-dense-6.7B
这是来自Artetxe等人的论文" Efficient Large Scale Language Modeling with Mixtures of Experts "中原始的密集6.7亿参数模型的Hugging Face transformers兼容转换。请参考原始模型卡片,地址为 https://github.com/facebookresearch/fairseq/blob/main/examples/moe_lm/model_card.md 。