私有化AI视频助手搭建实录:当Ollama遇上OpenClaw
AI视频生成的热度仍在攀升从HappyHorse-1.0匿名屠榜到各家模型竞相开源创作者似乎迎来了最好的时代。但一个现实问题始终悬而未决云端服务固然方便可谁愿意把未公开的脚本、商业素材甚至客户数据毫无保留地交给一个黑盒API于是我决定为自己搭建一套完全私有化的短视频制作AI助手。核心诉求很简单数据不出本地能用自然语言指挥AI完成从脚本到视频的全流程而且——尽可能免费。经过几轮折腾最终选定了Ollama Qwen2.5-27B OpenClaw这套组合。下文是我在本地与阿里云两种环境下的实践记录以及一些值得分享的思考。一、为什么是这三样Ollama几乎是目前管理本地大模型最省心的工具。它把模型量化、GPU加速、API服务全部封装成了一条命令。你不需要关心Python环境、不用手写FastAPIollama run qwen之后一个兼容OpenAI的接口就自动跑在了localhost:11434上。模型选型上我试过7B、14B和27B几个量级。对于短视频脚本创作、字幕生成、素材描述这类任务7B量化版在普通PC上已经能流畅运行效果够用但如果希望模型能理解更复杂的分镜指令、生成更细腻的文案27B版本的优势非常明显——尤其是长上下文的连贯性。考虑到硬件条件最终以Qwen2.5-14B作为主力必要时切换27B需32GB内存GPU。OpenClaw则是整个架构的“大脑”。它不生产视频但能指挥一切。你可以把它理解为一个开源的AI智能体框架它能读写文件、运行命令行、操控浏览器甚至通过飞书、钉钉跟你交互。最关键的是2026年4月它的新版正式支持了AI视频生成技能——你可以直接说“帮我做一个关于AI科普的30秒短视频配乐用轻快的钢琴曲”它会自动拆解任务、调用模型写脚本、再调用FFmpeg或外部视频API完成渲染。这三者组合起来就形成了一个闭环用户一句话 → OpenClaw 拆解任务 → Ollama Qwen 生成内容 → 调用本地工具或云端API输出视频。全程数据可以做到不上传任何公网。二、本地部署半小时跑通第一版环境与准备我用的是一台Windows PC32GB内存 RTX 306012GB显存。如果你想复现最低门槛是16GB内存 无独显用CPU跑7B量化版慢一点但能用。安装OllamaOllama官网下载Windows安装包双击安装任务栏会出现一只羊驼图标。打开命令行验证ollama --version如果想让Ollama被局域网其他设备访问比如用另一台电脑的OpenClaw连接需要设置环境变量set OLLAMA_HOST0.0.0.0然后重启Ollama服务。拉取模型我选择了量化版的Qwen2.5-14B在效果和资源之间取个平衡ollama run qwen2.5:14b-q4_K_M第一次运行会自动下载大约10-20分钟看网速。下载完成后进入对话界面随便问一句“你好”确认能正常回复即可。此时Ollama已经在后台提供了API服务。安装OpenClawOpenClaw在Windows上有两种安装方式一是直接下载官方提供的exe安装包约360MB解压到纯英文路径后双击运行二是通过WSL2子系统获得更完整的开发体验。我选了后者——因为后续可能要调试自定义脚本。WSL2的安装不再赘述安装完成后在Ubuntu子系统中执行一键安装脚本curl -fsSL https://openclaw.ai/install.sh | bash然后运行openclaw onboard --install-daemon按照向导选择QuickStart模式几分钟后OpenClaw的Gateway就启动了。管理面板地址是http://localhost:18789。对接Ollama关键一步让OpenClaw知道该调用哪个模型。编辑配置文件~/.openclaw/config.yamlWindows下在%USERPROFILE%\.openclaw\添加llm: provider: ollama endpoint: http://127.0.0.1:11434 model: qwen2.5:14b-q4_K_M temperature: 0.7保存后重启OpenClaw服务。然后在管理面板里随便发送一条指令比如“写一段关于AI视频制作的30秒短视频脚本”如果能正常返回内容说明对接成功。让OpenClaw拥有“视频能力”OpenClaw本身不带视频生成模型但它可以调用外部工具。我配置了两个技能本地FFmpeg用于剪辑、拼接、添加字幕。安装FFmpeg并加入PATH然后在OpenClaw的技能配置里启用ffmpeg技能。视频生成API可选如果你有HappyHorse或Seedance的API Key可以在配置里添加。不过为了彻底私有化我暂时只用了本地FFmpeg 素材库的方式——让OpenClaw自动从本地素材文件夹里选取片段根据脚本生成剪辑命令。完成这些后我试着下达了一条完整指令“从我的素材文件夹里随机选5段风景视频合成一段30秒的短片配上舒缓的背景音乐片头加上文字‘AI生成实验’。” OpenClaw花了大约40秒——先调用Qwen生成剪辑方案然后生成FFmpeg命令并执行最终输出了一段可用的MP4。虽然画质和节奏还需要人工微调但“从指令到成片”这个闭环已经跑通了。三、云端部署用阿里云获得7×24小时在线能力本地部署虽然隐私性好但电脑不能一直开着而且生成视频时CPU/GPU占用高影响日常使用。于是我把整套系统搬到了阿里云上。选型与成本阿里云提供了一键部署OpenClaw的镜像在轻量应用服务器页面选择「OpenClaw (Moltbot) 官方镜像」实例配置建议2核4GB起步。注意地域选择中国大陆的服务器联网搜索功能受限最好选中国香港或新加坡。我选了ecs.gn7i-c8g1.4xlarge8核32GB T4 GPU用于测试27B模型按量付费每小时约3元跑完就释放。日常轻量使用的话2核4GB的普通实例约0.5元/小时就够了——因为Qwen模型可以走阿里云百炼平台的API不需要在服务器上跑本地模型。两种模型调用方式在云端有两种方式让OpenClaw获得大模型能力方式一直接使用百炼平台的API Key这是最简单且成本最低的方案。阿里云百炼提供免费额度比如Coding Plan你只需要申请一个API Key然后在OpenClaw的配置里设置provider: bailian和对应的模型名称如qwen-max。数据会经过阿里云但相比其他第三方API信任成本低一些。方式二在云服务器上安装Ollama拉取Qwen模型本地推理如果你对数据隐私有极致要求或者想完全避免API调用费用可以在云服务器上重复本地的安装步骤。注意GPU实例需要安装NVIDIA驱动阿里云大多数GPU镜像已经预装。然后同样配置OpenClaw指向本地的127.0.0.1:11434。我选择混合模式日常对话和脚本生成用百炼API速度快、成本低涉及敏感素材的剪辑任务则启动一台带GPU的按量实例跑本地Ollama。部署流程简述在阿里云控制台购买轻量应用服务器镜像选择OpenClaw官方镜像放行端口18789管理面板和11434Ollama API如果需要通过http://公网IP:18789访问OpenClaw面板按提示生成Token并登录如果需要本地OllamaSSH登录服务器后执行curl -fsSL https://ollama.com/install.sh | sh安装再拉取模型修改OpenClaw配置文件指定模型来源整个过程大约20分钟比本地部署还快——因为镜像已经预装了OpenClaw及其依赖。四、真实体验它能做什么不能做什么经过一段时间的使用我对这套私有化AI助手的边界有了清晰的认识。它能做得很好的脚本与文案生成给一个主题Qwen能产出结构完整的分镜脚本风格可调正经、幽默、煽情。字幕自动生成把旁白文本丢给它能输出带时间轴的SRT文件准确率很高。素材检索与剪辑编排通过自然语言描述想要的画面风格“找一个阳光穿过树叶的镜头”OpenClaw可以调用本地脚本检索素材库的标签然后生成FFmpeg剪辑命令。批量处理比如“把文件夹里所有MP4压缩到720p并添加水印”这类机械化任务AI执行得又快又准。它还不擅长或者需要人工介入的直接生成视频内容除非你接入了专业的视频生成模型API如HappyHorse否则OpenClaw只能做“剪辑”而非“生成”。它可以从素材库里挑片段拼凑但无法凭空造出不存在的画面。高质量的口型同步虽然Qwen可以生成带时间轴的文本但让生成的虚拟人物说话口型匹配还需要专门的口型同步模型比如Wav2Lip目前OpenClaw没有原生集成。复杂的视觉审美判断AI能遵守“镜头切换不要快于1秒”这样的硬规则但对于“这个色调不够高级”这类主观判断无能为力。总的来说这套系统最适合的场景是你已经有一批素材或者能够从免费版权网站获取需要快速将它们组合、配文、配乐、输出成片。它把从“想法”到“粗糙成品”的时间从几小时压缩到了几分钟剩下的精雕细琢再由人来完成。五、与HappyHorse-1.0等新一代模型的联动可能写这篇文章时HappyHorse-1.0刚刚登顶AI评测榜。虽然它尚未开源阿里承诺后续开放权重但其技术路线给了我一个启发音视频联合生成正在成为趋势。传统的“先视频后配音”模式天然存在口型对齐难的问题而HappyHorse在统一DiT架构中同时生成画面和音频从根源上解决了同步问题。未来如果HappyHorse或类似模型开放本地部署版本我的这套架构就可以无缝升级把OpenClaw的视频生成技能从“调用FFmpeg剪辑”替换成“调用本地视频生成模型的API”。届时用户只需输入“一个宇航员在火星上弹吉他背景是落日”系统就能直接输出带同步音轨的视频——而且全程数据不离开你的服务器。事实上OpenClaw已经在最新版中预留了视频生成技能的插件接口目前支持阿里云百炼的视频服务。一旦开源模型权重放出社区很快就会出现对应的适配器。六、一些可能对你有用的经验模型大小不是越大越好。27B模型在普通消费级显卡上几乎跑不动需要24GB显存14B量化版是性能和资源的最佳平衡点。如果你的任务只是写脚本和字幕7B完全够用。善用OpenClaw的TaskFlows功能。你可以把“抓热点→写脚本→找素材→合成视频→发布”整个流程编排成一个任务定时执行。比如每天早晨自动生成一条当日科技新闻短视频并推送到你的钉钉群。数据安全不是玄学。即便用了本地OllamaOpenClaw的一些技能比如联网搜索仍然会发出外部请求。建议仔细检查每个技能的配置把不需要联网的统统禁用。阿里云部署时留意地域。如果你希望OpenClaw能主动搜索B站、抖音的热点内容服务器必须放在境外香港或新加坡否则很多网站无法访问。结语从“用云端AI生成视频”到“自己搭一套私有化AI视频助手”不只是技术栈的切换更是一种对数据主权的重新掌握。Ollama和OpenClaw这样的开源工具让个人创作者第一次拥有了和科技公司同等能力的基础设施——虽然还不能一步到位生成好莱坞大片但已经足以把日常短视频制作的效率提升一个数量级。更重要的是这个领域正在以肉眼可见的速度进化。HappyHorse-1.0的匿名屠榜、OpenClaw对视频技能的快速跟进、模型量化技术的成熟……每过一个月私有化部署能做的事情就多一圈。或许很快我们每个人都能拥有一个7×24小时在线的、完全属于自己的AI视频助手把脑海里的创意一键变成屏幕上的画面。而这正是我写下这篇记录的原因——不是为了提供一个标准答案而是希望更多人意识到这件事你现在就可以动手试试。