手把手教你用 LocalClaw 零成本部署本地大模型⏱️ 阅读时间8分钟 | ️ 标签LocalClaw / 本地大模型 / Ollama / 零成本 / 部署教程前言为什么你需要本地大模型你是不是也有这些困扰每次用 ChatGPT 要付钱Token 账单越积越高把公司代码发给云端 API总觉得不安全网络不稳定的时候AI 助手总是掉线想用 AI 助手但不知道怎么配置LocalClaw 解决这些问题。零门槛本地部署数据不上云日常零 Token 费用。这篇教程手把手教你 5 分钟跑起来。一、环境准备1.1 系统要求配置最低要求推荐配置系统Windows 10 / macOS 15macOS 15 (Apple Silicon)内存8GB16GB硬盘10GB 可用空间20GB SSD网络下载模型时需要无离线可用1.2 下载 LocalClaw去官网下载安装包https://www.localclaw.meWindows 用户下载 .exe 安装包双击安装macOS 用户下载 .dmg 文件拖入 Applications二、安装 OllamaLocalClaw 支持 Ollama 作为本地模型引擎。2.1 macOS / Linux 安装# 安装 Ollamacurl-fsSLhttps://ollama.com/install.sh|sh2.2 Windows 安装去 https://ollama.com/download 下载 Windows 版本2.3 验证安装ollama--version# 输出ollama version 0.5.x三、下载第一个模型3.1 推荐模型模型参数量内存占用适合场景Qwen3.5-4B4B4GB轻量任务、CPU 也能跑Qwen3.5-9B9B8GB日常主力推荐gemma4:e4b4B4GB平衡型gemma4:26b26B24GB高性能需求3.2 下载命令ollama pull qwen3.5-4b ollama pull qwen3.5-9b下载时间取决于网络一般 5-10 分钟。3.3 验证模型ollama list# NAME ID SIZE MODIFIED# qwen3.5-9b xxx 8.9GB 2 minutes ago四、配置 LocalClaw4.1 首次启动打开 LocalClaw点击「设置」→「模型」4.2 选择模型当前模型qwen3.5-9b 提供商Ollama4.3 简单测试在对话框输入你好介绍一下你自己五、实际使用场景5.1 场景一代码补全我帮我写一个 Python 函数判断字符串是否是回文 LocalClaw def is_palindrome(s: str) - bool: return s s[::-1]5.2 场景二技术文档写作我帮我写一个 API 接口文档 LocalClaw ## POST /api/users/login5.3 场景三数据整理| 序号 | 姓名 | 部门 | 薪资 | |------|------|------|------|六、本地 vs 云端场景本地模型云端模型代码补全✅ 够用✅ 强日常聊天✅ 流畅✅ 流畅技术文档✅ 够用✅ 强复杂推理⚠️ 勉强✅ 强隐私数据✅ 完全本地❌ 上传云端成本零 Token按量计费七、常见问题Q没有 GPU 能跑吗能。Qwen3.5-4B 在 CPU 上也能跑。建议 8GB 内存。Q数据真的不上云吗是的。本地模型处理数据永远在你的电脑里。八、成本分析项目费用LocalClaw免费Qwen3.5-9B免费Ollama电费每天 8 小时~$5/月每月总成本~$5总结用 LocalClaw 部署本地大模型5 分钟搞定下载安装 LocalClaw安装 Ollama下载第一个模型推荐 Qwen3.5-9B开始使用零门槛零 Token 费用数据不上云。官网https://www.localclaw.me