模型:

stabilityai/sd-vae-ft-ema

英文

改进的自动编码器

利用

这些权重设计用于与 ? diffusers library 一起使用。如果您要使用原始的 CompVis Stable Diffusion codebase 模型,则使用 come here

如何与?扩散器一起使用

您可以将此经过微调的VAE解码器集成到现有的扩散器工作流中,通过在 StableDiffusionPipeline 中包含一个 vae 参数。

from diffusers.models import AutoencoderKL
from diffusers import StableDiffusionPipeline

model = "CompVis/stable-diffusion-v1-4"
vae = AutoencoderKL.from_pretrained("stabilityai/sd-vae-ft-ema")
pipe = StableDiffusionPipeline.from_pretrained(model, vae=vae)

解码器微调

我们发布了两个kl-f8自动编码器版本,从原始的 kl-f8 autoencoder 经过微调,使用 LAION-Aesthetics 和 LAION-Humans 的1:1比例,其中包含仅包含人体的SFW图像。目的是在Stable Diffusion训练集上进行微调(自动编码器最初是在OpenImages上训练的),同时通过图像人数增加数据集,改善面部重建。第一个是 ft-EMA,从原始检查点恢复,经过313198步训练,并使用EMA权重。它使用与原始检查点相同的损失配置(L1 + LPIPS)。第二个是 ft-MSE,它从 ft-EMA 恢复,并使用EMA权重,经过额外的280k步使用不同的损失进行训练,更加强调MSE重建(MSE + 0.1 * LPIPS)。它产生了一些“更平滑”的输出。两个版本的批量大小都为192(16个A100,每个GPU的批量大小为12)。为了保持与现有模型的兼容性,只对解码器部分进行了微调;检查点可以用作现有自动编码器的替代品。

原始 kl-f8 VAE vs f8-ft-EMA vs f8-ft-MSE

评估

COCO 2017(256x256,验证集,5000个图像)

Model train steps rFID PSNR SSIM PSIM Link Comments
original 246803 4.99 23.4 +/- 3.8 0.69 +/- 0.14 1.01 +/- 0.28 1236321 as used in SD
ft-EMA 560001 4.42 23.8 +/- 3.9 0.69 +/- 0.13 0.96 +/- 0.27 1237321 slightly better overall, with EMA
ft-MSE 840001 4.70 24.5 +/- 3.7 0.71 +/- 0.13 0.92 +/- 0.27 1238321 resumed with EMA from ft-EMA, emphasis on MSE (rec. loss = MSE + 0.1 * LPIPS), smoother outputs

LAION-Aesthetics 5+(256x256,子集,10000个图像)

Model train steps rFID PSNR SSIM PSIM Link Comments
original 246803 2.61 26.0 +/- 4.4 0.81 +/- 0.12 0.75 +/- 0.36 1236321 as used in SD
ft-EMA 560001 1.77 26.7 +/- 4.8 0.82 +/- 0.12 0.67 +/- 0.34 1237321 slightly better overall, with EMA
ft-MSE 840001 1.88 27.3 +/- 4.7 0.83 +/- 0.11 0.65 +/- 0.34 1238321 resumed with EMA from ft-EMA, emphasis on MSE (rec. loss = MSE + 0.1 * LPIPS), smoother outputs

可视化

对来自COCO2017验证数据集的256x256图像的重建可视化。

256x256:ft-EMA(左),ft-MSE(中),原始(右)