模型:

cerspense/zeroscope_v2_dark_30x448x256

英文

zeroscope_dark_v2 30x448x256

一个无水印的基于Modelscope的视频模型,优化用于产生具有不同亮度和平滑视频输出的高质量16:9构图。该模型使用了9,923个片段和29,769个标记帧在30帧,448x256分辨率下从 original weights 进行训练。zeroscope_v2 30x448x256专为与 Potat1 的vid2vid进行的放大而设计,该扩展由 kabachuha 提供支持。在Potat1中使用此模型作为预备步骤,可以在448x256的更高分辨率下进行更快速的探索,然后过渡到高分辨率渲染,从而实现整体上优秀的构图。

使用1111 text2video扩展

  • 将文件“zeroscope_v2_dark_30x448x256.pth”重命名为“text2video_pytorch_model.pth”。
  • 将文件“zeroscope_v2_dark_30x448x256_text.bin”重命名为“open_clip_pytorch_model.bin”。
  • 替换'stable-diffusion-webui\models\ModelScope\t2v'目录中的相应文件。
  • 放大建议

    对于放大,建议使用1111扩展中的Potat1通过vid2vid进行。目标分辨率为1152x640,去噪强度介于0.66和0.85之间。记住使用生成原始剪辑时使用的相同提示和设置。

    已知问题

    较低分辨率或较少帧可能导致输出不理想。某些片段可能会出现切割。这将在即将推出的2.1版本中修复,该版本将包含更清晰的数据集。某些片段可能播放过慢,需要进行提示工程以增加速度。