如果要将图像生成融入插画制作或设计工作中,本地运行在稳定性和实用性上都通过云环境。这里我们将根据实际使用体验,整理出舒适运行 ComfyUI 所需的推荐配置。


CPU

大部分处理都是在 GPU 上进行的,所以不必太执着于 CPU。

虽然也有一些处理是由 CPU 完成的,但现在的 CPU 基本不会成为瓶颈。


GPU

总之 VRAM(显存)容量 最重要。哪怕计算速度再快,如果 VRAM 不足,根本就无法运行模型。这是唯一不建议妥协的地方。

  • 8GB:最低限度。想办法能跑,但限制较多。
  • 12〜16GB:大致能应对最新的技术(或者说技术都在向着这个容量进行轻量化)。
    • e.g. RTX 4060 Ti (16GB) / RTX 5060 (16GB)
  • 24GB以上:如果想同时使用 LLM 或制作长视频等重度作业,以此为目标。
    • e.g. RTX 3090 / 4090 / 5090

另外,请不要忘记选择 Nvidia 的 GPU。

虽然 AMD 或 Intel 在相同 VRAM 容量下更便宜,但绝大多数 AI 模型都是针对 Nvidia 优化的。哪怕纸面参数差不多,实际运行起来处理时间可能会慢好几倍,到时候你会后悔的。


内存 (RAM)

具体的机制我们会在别处讲解,简而言之,通过活用 RAM,可以运行 VRAM 装不下的模型。而 ComfyUI 非常擅长这种处理。

想要增加 12GB 的 VRAM 需要花费巨资,但增加 RAM 相对便宜(虽说最近也涨价了……),所以能插多少就插多少。至少需要 32GB


存储

SSD 的读取速度有着压倒性的优势,所以模型存放位置推荐使用 SSD 而不是 HDD。

话虽如此,AI 模型每一个都很大,即便只精选常用的,也很快就会超过 1TB。SSD 容量自然是越大越好,这就得看钱包的脸色了。

生成的图像和视频保存到 HDD 是没问题的。