我在ComfyUI中使用AnimateDiff输出视频,但速度感觉很慢。 我想知道这是否正常。
以下是我的工作环境详情。
输入img帧
检查点模型
LoRA模型
控制网络模型
KSampler(高级) 步骤:8 配置:2.5 采样器:dpm_2_ancestral、dpmpp_sde_gpu、dpmpp_2m、dpmpp_2(or3)m_sde_gpu 调度员:卡拉斯
Python版本:3.10.11 VAE 数据类型:torch.bfloat16 Pytorch版本:2.1.2+cu121 设备:cuda:0 NVIDIA GeForce RTX 3090:cudaMallocAsync 平台:Windows10
我的 GPU 在 KSampler 上只能工作 0~4%(几乎 1%)
我尝试过的事情
• 使用 run_gpu 批处理文件执行。
• 尝试仅将 –-lowvram、--normalvram 和 –-gpu 添加到 run_gpu 批处理文件中。
•收到 PyTorch 编译错误(视频生成成功)。 发现它被设置为使用CPU。 降级Python和PyTorch以启用GPU使用,PyTorch错误消失了。
•运行 ComfyUI 时在 cmd 窗口中观察到以下消息: 总 VRAM 24575 MB,总 RAM 130990 MB 将 vram 状态设置为:NORMAL_VRAM 设备:cuda:0 NVIDIA GeForce RTX 3090:cudaMallocAsync VAE 数据类型:torch.bfloat16
•调整采样器和步骤以适合模型。
•将针对 SDXL 优化的现有工作流程和模型更改为 SD 1.5
更改条件会影响视频质量,但 KSampler 步骤的进度速度根本没有提高(GPU 也很难一致工作)。
应用皮克斯风格的LoRA模型输出3D视频时,制作4秒视频大约需要12个小时!!!
我想知道是否出了什么问题,或者是否应该花这么长时间......
你解决了吗? 我也遇到这个问题了