Pixelle-Video 本地模型配置完全指南

# Pixelle-Video 本地模型配置完全指南

## 为什么使用本地模型

使用本地模型有以下几个核心优势:

– **零成本**:无需支付任何 API 调用费用
– **隐私安全**:所有数据均在本地处理
– **离线可用**:无需网络连接
– **自定义灵活**:可根据硬件配置优化

## 本地模型架构

Pixelle-Video 本地部署需要配置两类模型:

| 类型 | 用途 | 推荐工具 |
|——|——|———-|
| LLM(大语言模型) | 生成视频文案 | Ollama |
| 图像生成模型 | 生成视频配图 | ComfyUI + 本地模型 |

## Ollama 本地 LLM 配置

### 什么是 Ollama

Ollama 是一个本地大模型运行框架,支持在本地部署和运行各种开源 LLM。

**官网**:https://ollama.com

### 安装 Ollama

**macOS**
“`bash
brew install ollama
“`

**Linux**
“`bash
curl -fsSL https://ollama.com/install.sh | sh
“`

**Windows**
下载安装包:https://ollama.com/download

### 启动 Ollama 服务

“`bash
ollama serve
“`

服务默认运行在 `http://localhost:11434`

### 下载模型

Ollama 模型库地址:https://ollama.com/library

常用模型下载命令:

“`bash
# 下载 Qwen(通义千问)
ollama pull qwen2.5

# 下载 Llama 3
ollama pull llama3

# 下载 Phi-3
ollama pull phi3

# 下载 Gemma
ollama pull gemma

# 下载 Mistral
ollama pull mistral

# 下载 DeepSeek Coder
ollama pull deepseek-coder
“`

### 在 Pixelle-Video 中配置 Ollama

1. 打开「⚙️ 系统配置」
2. 选择 LLM 预设:**Ollama**
3. Base URL 填写:`http://localhost:11434`
4. Model 填写:你想使用的模型名(如 `qwen2.5`)
5. API Key:留空(本地部署无需 API Key)
6. 保存配置

### Ollama 常用命令

“`bash
# 查看已下载的模型
ollama list

# 删除模型
ollama rm modelname

# 复制模型
ollama cp source target

# 查看模型信息
ollama show modelname
“`

## ComfyUI 本地图像生成配置

### 安装 ComfyUI

“`bash
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
pip install -r requirements.txt
“`

### 启动 ComfyUI

“`bash
python main.py –listen 127.0.0.1 –port 8188
“`

### 下载图像生成模型

**Flux 模型下载**

1. 访问 HuggingFace:https://huggingface.co/black-forest-labs/FLUX.1-dev
2. 下载以下文件到 `ComfyUI/models/` 目录:
– `flux1-dev.safetensors`(主模型)
– `ae.safetensors`(VAE)

**SDXL 模型下载**

1. 访问 HuggingFace:https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0
2. 下载 `sd_xl_base_1.0.safetensors`

### 在 Pixelle-Video 中配置 ComfyUI

1. 打开「⚙️ 系统配置」
2. 图像配置选择:**本地部署**
3. ComfyUI URL:`http://127.0.0.1:8188`
4. 点击「测试连接」
5. 保存配置

## 硬件配置建议

### LLM 硬件需求

| 模型 | 最低显存 | 推荐显存 |
|——|———-|———-|
| Phi-3 | 4GB | 8GB |
| Gemma | 6GB | 12GB |
| Mistral | 6GB | 12GB |
| Llama 3 8B | 8GB | 16GB |
| Qwen2.5 | 8GB | 16GB |
| Llama 3 70B | 24GB | 48GB |

### 图像生成硬件需求

| 模型 | 最低显存 | 推荐显存 |
|——|———-|———-|
| SD 1.5 | 4GB | 8GB |
| SDXL | 8GB | 12GB |
| Flux (FP8) | 12GB | 16GB |
| Flux (FP16) | 24GB | 32GB |

## 完整免费方案配置

按照以下步骤配置完整的零成本方案:

### 第一步:安装 Ollama
“`bash
brew install ollama
ollama serve
ollama pull qwen2.5
“`

### 第二步:安装 ComfyUI
“`bash
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
pip install -r requirements.txt
“`

### 第三步:下载 Flux 模型
下载 flux1-dev.safetensors 和 ae.safetensors 到 ComfyUI/models/

### 第四步:启动服务
“`bash
# 终端1:Ollama
ollama serve

# 终端2:ComfyUI
python main.py –listen 127.0.0.1 –port 8188
“`

### 第五步:配置 Pixelle-Video
– LLM:Ollama,Model 填写 `qwen2.5`
– 图像:本地 ComfyUI,URL `http://127.0.0.1:8188`

## 性能优化技巧

### LLM 优化
– 使用量化模型(如 Q4_K_M)减少显存占用
– 调整上下文长度避免不必要的内存消耗
– 关闭不必要的模型后台进程

### 图像生成优化
– 使用 FP8 量化版本的 Flux 模型
– 调整生成步数(20-25 步通常足够)
– 合理设置图像尺寸

## 常见问题

**Q:Ollama 模型下载速度慢**
A:使用代理或选择较小的模型

**Q:ComfyUI 显存不足**
A:减小图像尺寸或使用量化模型

**Q:模型加载失败**
A:确认模型文件路径正确,文件名匹配

Scroll to Top