这是在“格林本质”数据集上对 GPT2-Medium 进行微调的版本。 (上面链接)可用 here 进行演示。建议使用演示平台而不是右侧的推理框。
此系列中最大的模型位于此处: GPT-Greentext-1.5b
这是使用“HappyTransformers”库在Google Colab上训练的“格林本质”数据集。此模型进行了15个时代的训练,学习率为1e-2。
这很可能包含与其基于的原始GPT2相同的偏见和限制,以及来自格林本质数据集的重大偏见。它很可能会生成冒犯性的输出。
此模型只是为了好玩,没有其他用途。
#Import model: from happytransformer import HappyGeneration happy_gen = HappyGeneration("GPT2", "DarwinAnim8or/GPT-Greentext-355m") #Set generation settings: from happytransformer import GENSettings args_top_k = GENSettingsGENSettings(no_repeat_ngram_size=3, do_sample=True, top_k=80, temperature=0.8, max_length=150, early_stopping=False) #Generate a response: result = happy_gen.generate_text(""">be me >""", args=args_top_k) print(result) print(result.text)