模型:
JosephusCheung/ACertainThing
Anything3.0是一个过拟合的模型,在生成人类图像和特定细节时采取了不应该采取的自由。但是,社区给予它很高的评价,我认为这是因为许多不知道如何撰写提示的懒人可以使用这个过拟合模型生成高质量的图像,即使他们的提示写得很糟糕。
这是一个ACertain版本的Anything3.0,使用Dreambooth(由 LoRA 的想法融合)制作,初始化为 ACertainModel 。
尽管这个模型可能在图像生成方面产生更好的结果,但它基于两个主要问题构建。首先,它并不总是按照您的提示保持真实性;它添加了不相关的细节,有时这些细节高度同质化。其次,它是一个不稳定的、过拟合的模型,类似于Anything3.0,并不适合任何形式的进一步训练。据我所知,Anything3.0是通过将几个模型以恰当的方式合并而获得的,但它本身是一个饱和度和配置都存在缺陷的过拟合模型。然而,正如我之前提到的,即使是写得很糟糕的提示,它也能产生良好的输出图像,这使得许多不懂得仔细学习提示写作的懒人很快超越了那些认真研究提示写作的人。尽管存在这些问题,我仍然希望发布一个扩展版本的模型,以迎合社区中许多人的偏好。我希望您喜欢它。
从我个人的观点来看,我反对所有形式的模型合并,因为它没有科学原则,只是浪费时间。这是一种渴望在不付出努力的情况下获得结果的欲望。这就是为什么我不喜欢Anything3.0或者正在发布的这个模型的原因。但我尊重社区的选择和偏好,希望您也能尊重并理解我的想法。
如果您希望您的提示能够准确输出,并且想学习正确使用提示的技巧,建议您使用更加平衡的模型 ACertainModel 。
例如:杰作、最佳质量、1女孩、棕色头发、绿色眼睛、多彩、秋天、积云、闪电、蓝天、落叶、花园
不允许修改参数,因为它似乎是使用Clip skip: 1生成的,为了获得更好的性能,强烈建议改用Clip skip: 2。
这是一个推理设置的示例,如果适用于您的服务器:步骤:28,采样器:Euler a,CFG比例:11,Clip skip: 2 。
这个模型可以像其他稳定扩散模型一样使用。有关更多信息,请参阅 Stable Diffusion 。
您还可以导出模型到 ONNX , MPS 和/或FLAX/JAX。
from diffusers import StableDiffusionPipeline import torch model_id = "JosephusCheung/ACertainThing" branch_name= "main" pipe = StableDiffusionPipeline.from_pretrained(model_id, revision=branch_name, torch_dtype=torch.float16) pipe = pipe.to("cuda") prompt = "pikachu" image = pipe(prompt).images[0] image.save("./pikachu.png")
以下是使用该模型生成的一些图像示例,与其他类似物相比,在构图、手势以及移动物体方面具有更好的性能:
1girl, brown hair, green eyes, colorful, autumn, cumulonimbus clouds, lighting, blue sky, falling leaves, garden Steps: 28, Sampler: Euler a, CFG scale: 11, Seed: 114514, Clip skip: 2
1boy, brown hair, green eyes, colorful, autumn, cumulonimbus clouds, lighting, blue sky, falling leaves, garden Steps: 28, Sampler: Euler a, CFG scale: 11, Seed: 114514, Clip skip: 2
这个模型是公开访问的,对所有人开放,采用CreativeML OpenRAIL-M许可证进一步明确权利和使用规定。CreativeML OpenRAIL许可证规定: