Fairseq-dense 6.7B-Janeway 是使用Fairseq的MoE dense模型进行微调创建的。
训练数据包含大约2210本电子书,主要是科幻和奇幻类别。该数据集与GPT-Neo-2.7B-Janeway使用的数据集相同。数据集的某些部分已经使用以下文本进行了前置处理:[Genre: <genre1>,<genre2>]
您可以直接将此模型与文本生成管道一起使用。每次运行此示例都会生成不同的序列:
>>> from transformers import pipeline >>> generator = pipeline('text-generation', model='KoboldAI/fairseq-dense-13B-Janeway') >>> generator("Welcome Captain Janeway, I apologize for the delay.", do_sample=True, min_length=50) [{'generated_text': 'Welcome Captain Janeway, I apologize for the delay."\nIt's all right," Janeway said. "I'm certain that you're doing your best to keep me informed of what\'s going on."'}]
基于NLP技术已知的问题,潜在相关因素包括偏见(性别、职业、种族和宗教)。
Artetxe et al. (2021): Efficient Large Scale Language Modeling with Mixtures of Experts