模型:
DarwinAnim8or/Pythia-Greentext-1.4b
一个在“greentext”数据集上微调的版本。一个演示可用 here 。建议使用演示游乐场而不是右侧的推理框。
这是对我“GPT-Greentext”发布的另一种方式。
该模型在Google Colab上使用“greentext”数据集进行训练。此模型经过1个epoch的训练,学习率为1e-2。值得注意的是,该模型使用了“prompt”和“completion”风格的jsonl文件,而不是greentext数据集中的纯文本文件。这样做能获得更好、更一致的结果。
这个模型可能包含基于原始模型的相同偏见和限制,还可能受到greentext数据集的重大偏见的影响。需要注意的是,可能会产生冒犯性或不符合公序良俗的输出。
这个模型只是用于娱乐,没有其他用途。
这个模型倾向于使用no_repeat_ngram_size值为1或2,而其他模型倾向于使用3。
#Import model: from happytransformer import HappyGeneration happy_gen = HappyGeneration("GPTNEO", "DarwinAnim8or/Pythia-Greentext-1.4b") #Set generation settings: from happytransformer import GENSettings args_top_k = GENSettingsGENSettings(no_repeat_ngram_size=2, do_sample=True, top_k=80, temperature=0.1, max_length=150, early_stopping=False) #Generate a response: result = happy_gen.generate_text(""">be me >""", args=args_top_k) print(result) print(result.text)