ComfyUI KSampler 步骤太慢。正常吗?

问题描述 投票:0回答:1

我在ComfyUI中使用AnimateDiff输出视频,但速度感觉很慢。 我想知道这是否正常。

以下是我的工作环境详情。

输入img帧

  • 10~60 (KSampler速度120~830s/it)

检查点模型

  • 通配符TURBO_sdxl,anythingXL

LoRA模型

  • gyblistyle、卡通、EnvyOil (也尝试过没有 Lora)

控制网络模型

  • 深度,精明(两者都用)

KSampler(高级) 步骤:8 配置:2.5 采样器:dpm_2_ancestral、dpmpp_sde_gpu、dpmpp_2m、dpmpp_2(or3)m_sde_gpu 调度员:卡拉斯

Python版本:3.10.11 VAE 数据类型:torch.bfloat16 Pytorch版本:2.1.2+cu121 设备:cuda:0 NVIDIA GeForce RTX 3090:cudaMallocAsync 平台:Windows10

我的 GPU 在 KSampler 上只能工作 0~4%(几乎 1%)

我尝试过的事情

• 使用 run_gpu 批处理文件执行。

• 尝试仅将 –-lowvram、--normalvram 和 –-gpu 添加到 run_gpu 批处理文件中。

•收到 PyTorch 编译错误(视频生成成功)。 发现它被设置为使用CPU。 降级Python和PyTorch以启用GPU使用,PyTorch错误消失了。

•运行 ComfyUI 时在 cmd 窗口中观察到以下消息: 总 VRAM 24575 MB,总 RAM 130990 MB 将 vram 状态设置为:NORMAL_VRAM 设备:cuda:0 NVIDIA GeForce RTX 3090:cudaMallocAsync VAE 数据类型:torch.bfloat16

•调整采样器和步骤以适合模型。

•将针对 SDXL 优化的现有工作流程和模型更改为 SD 1.5

更改条件会影响视频质量,但 KSampler 步骤的进度速度根本没有提高(GPU 也很难一致工作)。

应用皮克斯风格的LoRA模型输出3D视频时,制作4秒视频大约需要12个小时!!!

我想知道是否出了什么问题,或者是否应该花这么长时间......

gpu artificial-intelligence nvidia stable-diffusion generative
1个回答
0
投票

你解决了吗? 我也遇到这个问题了

© www.soinside.com 2019 - 2024. All rights reserved.