这是一份在云 GPU 服务器上部署 ComfyUI 并跑通 Lightricks LTX-2.3 视频生成模型的完整教程,从环境检查、依赖安装、模型下载,到端口放行和显存优化,每一步都给出可直接复制的命令。
官方资源
- HuggingFace 模型仓库:https://huggingface.co/Lightricks/LTX-2.3/
- GitHub 项目主页:https://github.com/Lightricks/LTX-2
- ComfyUI 节点仓库:https://github.com/Lightricks/ComfyUI-LTXVideo
服务器配置要求
- GPU:NVIDIA L20 48GB / A100 40GB+ / H100 / RTX 4090 24GB(推荐 L20 或更高)
- 系统:Ubuntu 22.04 LTS
- CUDA 驱动:已预装
显卡选型说明(实测)
| 显卡 | 显存 | 跑 LTX-2.3 22B fp8 | 备注 |
|---|---|---|---|
| A10 | 24GB | ❌ 跑不起来 | 主模型 + Gemma 文本编码器加载就 OOM |
| RTX 4090 | 24GB | ⚠️ 勉强(必须 --lowvram) |
速度慢,可作开发测试 |
| L20 | 48GB | ✅ 推荐 | 阿里云性价比之选,本教程实测平台 |
| A100 | 40/80GB | ✅ 推荐 | 高负载、批量生成场景 |
| H100 | 80GB | ✅ 旗舰 | 多任务并行 |
⚠️ A10 24GB 无法运行本教程的 fp8 主模型 + Gemma 12B 文本编码器组合。即使加
--lowvram,加载 Gemma 时也会 OOM。最低建议 40GB 显存以上的卡。💡 本教程基于云厂商提供的 GPU 镜像,开机即自带 NVIDIA 驱动和 CUDA 环境(阿里云、腾讯云、AutoDL 等都有类似的 “Ubuntu 22.04 + GPU Driver + CUDA” 公共镜像可选)。如果你用的是纯净系统,需要先自行安装 NVIDIA 驱动和 CUDA Toolkit,再继续后面的步骤。
一、确认环境
# 确认驱动和 CUDA 版本
nvidia-smi
# 确认 CUDA toolkit(有输出说明已装,报错不影响,PyTorch 自带 runtime)
nvcc --version
二、安装依赖
# 安装 PyTorch(CUDA 12.8,L20 / Ada / Hopper 推荐)
pip install torch torchvision torchaudio \
--index-url https://download.pytorch.org/whl/cu128
# 验证 GPU 是否可用
python3 -c "import torch; print(torch.cuda.is_available())"
# 输出 True 即正常
# 安装 huggingface 下载工具
pip install huggingface_hub hf_transfer
三、安装 ComfyUI
git clone https://github.com/comfyanonymous/ComfyUI
cd ComfyUI
pip install -r requirements.txt
四、安装 ComfyUI Manager
cd ~/ComfyUI/custom_nodes
git clone https://github.com/ltdrdata/ComfyUI-Manager
五、配置 HuggingFace 镜像(国内服务器必须)
echo 'export HF_ENDPOINT=https://hf-mirror.com' >> ~/.bashrc
echo 'export HF_HUB_ENABLE_HF_TRANSFER=1' >> ~/.bashrc
source ~/.bashrc
六、下载模型
登录 HuggingFace(可选但强烈推荐)
下载公开模型本身不要求登录,但登录后有两个好处:
- 提高限流阈值:未登录用户限流更严,并行下载容易触发 429 错误
- 可下载 gated 模型:部分模型(如 Llama 系列)需要先在网页上 “Agree and access” 后才能下载
第一步:获取 token
- 访问 https://huggingface.co/settings/tokens
- 点击 Create new token
- Type 选 Read(只下载用 Read 即可,不要给 Write 权限)
- 命名比如
comfyui-server,点击创建 - 复制生成的
hf_...字符串(只显示一次,丢了只能重新生成)
第二步:在服务器上登录
# 交互式登录(推荐)
hf auth login
按提示粘贴 token 后回车。
⚠️ 粘贴 token 时看不到回显是正常的,直接粘完按回车即可。 提示
Add token as git credential? (Y/n)时一般选n。
或者使用环境变量(适合脚本/自动化):
echo 'export HF_TOKEN=hf_xxxxxxxxxxxxxxxxxxxx' >> ~/.bashrc
source ~/.bashrc
验证登录状态:
hf auth whoami
显示用户名即登录成功。
模型直链(可手动浏览器下载)
checkpoints
loras
latent_upscale_models
text_encoders
模型目录结构
ComfyUI/models/
├── checkpoints/
│ └── ltx-2.3-22b-dev-fp8.safetensors
├── loras/
│ ├── ltx-2.3-22b-distilled-lora-384.safetensors
│ └── gemma-3-12b-it-abliterated_lora_rank64_bf16.safetensors
├── latent_upscale_models/
│ └── ltx-2.3-spatial-upscaler-x2-1.1.safetensors
└── text_encoders/ # 官方目录树未列出,但实际运行需要
└── gemma_3_12B_it_fp8_e4m3fn.safetensors
💡 官方说明里
models/目录树不包含text_encoders/,但 LTX-2.3 在 ComfyUI 中需要通过LTXAVTextEncoderLoader节点加载 Gemma 文本编码器,因此必须额外下载并放入text_encoders/目录。
安装 tmux
模型文件较大(合计约 50GB+),强烈建议在 tmux 中下载,防止 SSH 断开导致下载中断。
apt install tmux -y
下面提供两种下载方案,推荐方案 B(并行),速度可以快 3–5 倍。
方案 A:串行下载(单 session)
适合带宽一般或想保持简单的场景。
# 新建 session
tmux new -s download
# 在 session 中依次执行(按 Ctrl+B 再按 D 可挂到后台)
# 主模型 fp8(29.1GB)
cd ~/ComfyUI/models/checkpoints
hf download Lightricks/LTX-2.3-fp8 \
ltx-2.3-22b-dev-fp8.safetensors --local-dir .
# 空间超分模型(996MB)
cd ~/ComfyUI/models/latent_upscale_models
hf download Lightricks/LTX-2.3 \
ltx-2.3-spatial-upscaler-x2-1.1.safetensors --local-dir .
# Distilled LoRA(7.61GB)
cd ~/ComfyUI/models/loras
hf download Lightricks/LTX-2.3 \
ltx-2.3-22b-distilled-lora-384.safetensors --local-dir .
# Gemma LoRA
cd ~/ComfyUI/models/loras
hf download Comfy-Org/ltx-2 \
split_files/loras/gemma-3-12b-it-abliterated_lora_rank64_bf16.safetensors \
--local-dir .
# Gemma 文本编码器 fp8(推荐,13.2GB,通用兼容)
cd ~/ComfyUI/models/text_encoders
hf download GitMylo/LTX-2-comfy_gemma_fp8_e4m3fn \
gemma_3_12B_it_fp8_e4m3fn.safetensors --local-dir .
方案 B:并行下载(推荐)
阿里云 GPU 实例通常有几 Gbps 出口带宽,单个 hf download 用不满。开多个 tmux session 并行下载能跑满总带宽,5 个左右是性价比最高的并发数。
# 主模型 fp8(29.1GB)
tmux new -s dl-main -d \
"cd ~/ComfyUI/models/checkpoints && \
hf download Lightricks/LTX-2.3-fp8 \
ltx-2.3-22b-dev-fp8.safetensors --local-dir ."
# Distilled LoRA(7.61GB)
tmux new -s dl-lora1 -d \
"cd ~/ComfyUI/models/loras && \
hf download Lightricks/LTX-2.3 \
ltx-2.3-22b-distilled-lora-384.safetensors --local-dir ."
# Gemma LoRA
tmux new -s dl-lora2 -d \
"cd ~/ComfyUI/models/loras && \
hf download Comfy-Org/ltx-2 \
split_files/loras/gemma-3-12b-it-abliterated_lora_rank64_bf16.safetensors \
--local-dir ."
# Gemma 文本编码器 fp8(13.2GB)
tmux new -s dl-text -d \
"cd ~/ComfyUI/models/text_encoders && \
hf download GitMylo/LTX-2-comfy_gemma_fp8_e4m3fn \
gemma_3_12B_it_fp8_e4m3fn.safetensors --local-dir ."
# 空间超分模型(996MB)
tmux new -s dl-upscale -d \
"cd ~/ComfyUI/models/latent_upscale_models && \
hf download Lightricks/LTX-2.3 \
ltx-2.3-spatial-upscaler-x2-1.1.safetensors --local-dir ."
-d表示创建后立即放后台,无需手动挂起。命令会在该 session 中独立执行。
监控下载进度
# 查看所有下载 session
tmux ls
# 进入某个 session 看实时进度(看完按 Ctrl+B 再按 D 退出)
tmux attach -t dl-main
# 监控各模型目录大小变化
watch -n 2 'du -sh ~/ComfyUI/models/*/'
# 实时查看网络带宽(可选)
apt install -y nload && nload
⚠️ 注意事项
- 磁盘空间:合计约 51GB,下载前用
df -h确认至少有 80GB 可用空间- 不要无限并发:5 个左右是甜区,超过 10 个反而互相抢带宽 + 可能触发 HuggingFace 限流
- 触发限流时(出现 429 错误或速度骤降):减少并发数,或执行
hf auth login登录后再下载
验证下载结果
下载完成后,强烈建议用下面这条命令一次性核对所有目录的内容,避免文件下到错误位置导致 ComfyUI 加载不到:
find ~/ComfyUI/models \
-type d \( \
-name "checkpoints" -o \
-name "loras" -o \
-name "text_encoders" -o \
-name "latent_upscale_models" -o \
-name "vae" \
\) -exec sh -c \
'echo "=== $1 ==="; ls -lh "$1"; echo' _ {} \;
预期输出(参考):
| 目录 | 应该包含的文件 | 大小 |
|---|---|---|
checkpoints/ |
ltx-2.3-22b-dev-fp8.safetensors |
28G |
loras/ |
ltx-2.3-22b-distilled-lora-384.safetensors |
7.1G |
loras/ |
gemma-3-12b-it-abliterated_lora_rank64_bf16.safetensors |
600M |
text_encoders/ |
gemma_3_12B_it_fp8_e4m3fn.safetensors(或 fp4_mixed) |
13G / 8.8G |
latent_upscale_models/ |
ltx-2.3-spatial-upscaler-x2-1.1.safetensors |
950M |
常见错误与修复
情况 1:文件被下到子目录里(最常见,多数情况无需处理)
hf download 会保留仓库的原始路径结构,导致出现这种嵌套:
~/ComfyUI/models/loras/split_files/loras/gemma-3-12b-it-abliterated_lora_rank64_bf16.safetensors
~/ComfyUI/models/text_encoders/split_files/text_encoders/gemma_3_12B_it_fp4_mixed.safetensors
较新版 ComfyUI 对模型目录是递归扫描的,子目录里的文件能正常识别,只是在节点下拉框里会显示成带路径前缀的名字(如 split_files/loras/xxx.safetensors)。只要节点能选到、能跑通,就无需移动。
只在以下情况需要把文件移到模型目录根:
- 节点下拉框里完全看不到该文件(旧版 ComfyUI 不递归扫描)
- 复用别人的 workflow.json 时报"model not found",对方的文件名里没有
split_files/前缀
需要时执行:
# 移动 LoRA 到正确位置(用通配符,避免长文件名复制时被截断)
mv ~/ComfyUI/models/loras/split_files/loras/*.safetensors ~/ComfyUI/models/loras/
# 移动 text_encoder 到正确位置
mv ~/ComfyUI/models/text_encoders/split_files/text_encoders/*.safetensors ~/ComfyUI/models/text_encoders/
# 清理空的子目录和下载缓存
rm -rf ~/ComfyUI/models/loras/split_files ~/ComfyUI/models/loras/.cache
rm -rf ~/ComfyUI/models/text_encoders/split_files ~/ComfyUI/models/text_encoders/.cache
💡 小提示:处理超长文件名时优先用
*.safetensors通配符。直接复制带反斜杠续行的完整文件名时,部分终端会在单词中间硬换行导致命令断裂。
情况 2:超分模型放错目录
比如 ltx-2.3-spatial-upscaler-x2-1.1.safetensors 被下到了 loras/:
mkdir -p ~/ComfyUI/models/latent_upscale_models
mv ~/ComfyUI/models/loras/ltx-2.3-spatial-upscaler-x2-1.1.safetensors \
~/ComfyUI/models/latent_upscale_models/
情况 3:文件大小为 0 或几 KB
下载未完成或网络中断,删除后重新下载即可:
rm 文件路径
# 重新执行对应的 hf download 命令
💡 调整文件位置后,需要在 ComfyUI 网页右上角点 刷新(🔄)按钮,或重启 ComfyUI 进程才能识别新文件。
七、启动 ComfyUI
模型下载完成后,新开一个 tmux session 来运行 ComfyUI(与下载 session 分开,便于管理)。
在 tmux 中启动
# 新建 session(tmux 已在第六节安装过)
tmux new -s comfyui
# 启动 ComfyUI(显存不足时加 --lowvram)
cd ~/ComfyUI
python main.py --listen 0.0.0.0 --port 8188
# 挂到后台:按 Ctrl+B,松开,再按 D
常用 tmux 命令
tmux ls # 查看所有 session
tmux attach -t comfyui # 回到 ComfyUI session
tmux attach -t download # 回到下载 session 查看进度
tmux kill-session -t comfyui # 结束 session
八、阿里云安全组放行端口
控制台 → 安全组 → 添加入方向规则:
- 端口:
8188 - 来源:
0.0.0.0/0
浏览器访问:http://你的公网IP:8188
九、显存不足(OOM)解决方法
# 方法 1:低显存模式
python main.py --listen 0.0.0.0 --port 8188 --lowvram
# 方法 2:极限省显存(全卸到内存,速度慢)
python main.py --listen 0.0.0.0 --port 8188 --novram
生成参数建议:
- 分辨率不超过 768x512
- 帧数控制在 25 帧以内
注意事项
- A10 24GB 实测无法运行本教程(fp8 主模型 + Gemma 12B 加载即 OOM),推荐 L20 48GB 或 A100 40GB 以上
- 多卡部署不能合并显存,ComfyUI 默认只用 GPU 0
- Gemma fp4_mixed 格式需要支持 fp4 计算的显卡(Ada / 50xx 系列等),不支持的卡请用 fp8 版本
- Gemma 模型放
text_encoders/目录,用LTXAVTextEncoderLoader节点加载
十、LTX-2.3 提示词撰写技巧
官方给出三个核心维度,写好这三块能显著提升出片质量:
- 核心动作(Core Actions):按时间顺序描述画面里发生的事件和动作
- 视觉细节(Visual Details):把希望出现在视频里的所有视觉元素都写清楚(人物外观、场景、光线、色调、镜头语言等)
- 音频(Audio):描述场景需要的环境音效和对话台词
LTX-2.3 支持原生音视频联合生成,提示词里写音频描述会直接影响输出。
十一、问题反馈
| 问题类型 | 反馈仓库 |
|---|---|
| 工作流跑不起来 / 运行报错 | ComfyUI/issues |
| 前端 / UI 问题 | ComfyUI_frontend/issues |
| 工作流模板问题 | workflow_templates/issues |
| LTX-2.3 模型 / 节点问题 | ComfyUI-LTXVideo/issues |
提交 issue 前请先把 ComfyUI 升级到最新版本,并确认所需模型已正确放入对应目录。