一、部署准备1、安装Docker desktop官网自行下载安装后启动2、检查 WSL安装及版本情况#检查wsl是否安装及对应版本在 windows powershell 中执行 wsl -l -v 类似 NAME STATE VERSION * Ubuntu Stopped 23、WSL 启动及安装 make 工具#win r 打开运行输入 wsl 启动在 wsl 中执行如下命令 sudo apt update sudo apt install build-essential #验证 make --version二、部署 Deerflow2.0官方文档1点击查看官方文档 2点击查看1、 Windows powershell中克隆 DeerFlow 仓库git clone https://github.com/bytedance/deer-flow.git 默认在 c 盘的 system32 文件夹中建议迁移到 D 盘软件文件夹D:\software\deer-flow2、 WSL 执行部署命令配置# 进入 deer-flow 文件夹按照 linux 格式改成如下 cd /mnt/d/software/deer-flow # 生成配置文件 make config 如果执行不成功可以自己去 deer-flow 文件夹下找到.env和 config的 example 文件 复制并且分别命名为.env和 config.yaml # 如果需要 tavily 工具那编辑.env文件用命令打开并填写key sudo nano .env # 编辑 config 文件 sudo nano config.yaml 内容格式建议参考example 文件中的内容每个模块配置都有示例。我自己是这么写的但缺少参数导致最终前端页面只有 flash 模式 models: - name: lmstudio # 内部唯一标识可自定义 display_name: qwen3.5-9b (lmstudio) # 在 UI 中显示的名称 use: langchain_openai:ChatOpenAI # 使用 LangChain 的 OpenAI 适配器 model: qwen/qwen3.5-9b # 这个字段对 LM Studio 通常不重要可以任意填写或留空 api_key: lmstudio # 我是本地模型。如果是云端模型则引用 .env 文件中的环境变量推荐此处改成$OPENAI_API_KEY base_url: http://192.168.235.1:1212/v1 # 关键指向 LM Studio 的 API 地址 max_tokens: 8192 # 根据你的模型能力调整 temperature: 0.7 # 建议检查下环境如果有工具没有安装的再找下相关命令安装 make check3、WSL 执行部署命令安装# 初始化 Docker 环境 make docker-init #启动开发服务 make docker-start #官方建议如果您的网络中 Docker 构建速度较慢您可以在运行之前覆盖默认的软件包注册表make docker-initmake docker-start export UV_INDEX_URLhttps://pypi.org/simple export NPM_REGISTRYhttps://registry.npmjs.org 实际部署过程时间还是比较长耐心等待 更多 docker 命令 # Build the custom k3s image (with pre-cached sandbox image) make docker-init # Start Docker services (mode-aware, localhost:2026) make docker-start # Stop Docker development services make docker-stop # View Docker development logs make docker-logs # View Docker frontend logs make docker-logs-frontend # View Docker gateway logs make docker-logs-gateway部署完成后就在 docker 里面使用。虚拟机的 linux 系统部署因为资源占用问题会非常卡建议使用 docker 部署使用起来更方便而且也更稳定。不推荐使用本地模型完全跑不起来。