英文

GPT-Greentext-355m

这是在“格林本质”数据集上对 GPT2-Medium 进行微调的版本。 (上面链接)可用 here 进行演示。建议使用演示平台而不是右侧的推理框。

此系列中最大的模型位于此处: GPT-Greentext-1.5b

训练过程

这是使用“HappyTransformers”库在Google Colab上训练的“格林本质”数据集。此模型进行了15个时代的训练,学习率为1e-2。

偏见和限制

这很可能包含与其基于的原始GPT2相同的偏见和限制,以及来自格林本质数据集的重大偏见。它很可能会生成冒犯性的输出。

预期使用

此模型只是为了好玩,没有其他用途。

示例用法

#Import model:
from happytransformer import HappyGeneration
happy_gen = HappyGeneration("GPT2", "DarwinAnim8or/GPT-Greentext-355m")

#Set generation settings:
from happytransformer import GENSettings
args_top_k = GENSettingsGENSettings(no_repeat_ngram_size=3, do_sample=True, top_k=80, temperature=0.8, max_length=150, early_stopping=False)

#Generate a response:
result = happy_gen.generate_text(""">be me
>""", args=args_top_k)

print(result)
print(result.text)