OpenClaw千问3.5-35B-A3B-FP85步实现飞书机器人多模态对话1. 为什么选择这个组合上个月团队内部的知识库查询需求突然暴增——产品文档、技术规范、会议纪要散落在不同平台每天要花大量时间手动检索。更麻烦的是有些关键信息藏在截图或PDF附件里传统搜索根本无能为力。在尝试了几款企业级解决方案后我发现它们要么权限管控太复杂要么价格远超小团队预算。直到偶然看到千问3.5-35B-A3B-FP8这个多模态模型镜像配合OpenClaw的本地化部署特性突然意识到这不就是为小团队量身定制的方案吗经过两周的实测验证最终实现了通过飞书机器人对话窗口直接上传图片或输入问题就能获取跨平台知识的自动化流程。整个过程没有调用任何SaaS API所有数据处理都在本地完成。2. 环境准备与核心组件2.1 硬件配置建议我的测试环境是一台闲置的MacBook ProM1 Pro芯片/32GB内存实际运行中发现几个关键点模型推理千问3.5-35B-A3B-FP8在FP8量化下至少需要24GB显存我用--device mps参数让Metal Performance Shaders分担部分负载内存占用OpenClaw网关服务模型推理峰值时吃到28GB内存建议预留10%缓冲空间存储空间模型镜像约68GB加上OpenClaw及其依赖需要准备至少100GB可用空间2.2 关键组件版本# 验证环境时使用的版本组合 openclaw --version # v0.8.3 qwen-portal --version # qwen3.5-35b-a3b-fp8-v1.2 node -v # v20.11.1特别提醒如果使用Windows系统建议通过WSL2部署原生PowerShell环境可能会遇到路径处理问题。3. 五步实现多模态飞书机器人3.1 第一步部署模型服务在星图平台找到千问3.5-35B-A3B-FP8镜像后使用以下命令启动服务docker run -d --name qwen35 \ -p 5000:5000 \ -v /path/to/models:/app/models \ -e QUANTIZEfp8 \ -e DEVICEauto \ registry.cn-hangzhou.aliyuncs.com/qwen/qwen3.5-35b-a3b-fp8:latest验证服务是否正常curl -X POST http://localhost:5000/v1/chat/completions \ -H Content-Type: application/json \ -d {model: qwen3.5-35b-a3b-fp8, messages: [{role: user, content: 你好}]}3.2 第二步安装OpenClaw飞书插件openclaw plugins install m1heng-clawd/feishu openclaw plugins list | grep feishu # 确认插件状态这里有个小坑如果之前安装过旧版插件建议先执行openclaw plugins uninstall m1heng-clawd/feishu清理残余配置。3.3 第三步配置飞书应用凭证登录飞书开放平台创建企业自建应用在凭证与基础信息获取App ID和App Secret修改OpenClaw配置文件// ~/.openclaw/openclaw.json { channels: { feishu: { enabled: true, appId: cli_xxxxxx, appSecret: xxxxxx, encryptKey: , verificationToken: , connectionMode: websocket } } }重要提示如果遇到[FEISHU] WebSocket connection failed错误检查企业是否开启了IP白名单。临时解决方案是在飞书后台添加服务器公网IPcurl ifconfig.me # 获取当前公网IP3.4 第四步接入多模态模型关键配置在models.providers部分{ models: { providers: { qwen-local: { baseUrl: http://localhost:5000/v1, apiKey: EMPTY, api: openai-completions, models: [ { id: qwen3.5-35b-a3b-fp8, name: Qwen3.5本地版, contextWindow: 32768, maxTokens: 4096, capabilities: [vision] } ] } } } }重启服务使配置生效openclaw gateway restart3.5 第五步加载多模态技能安装处理图片和文档的增强技能clawhub install file-processor image-analyzer测试图片理解能力时我直接拖拽产品界面截图到飞书对话框OpenClaw的响应令人惊喜[用户] 上传图片: screenshot.png [机器人] 识别到产品界面包含 1. 顶部导航栏有数据看板用户管理标签 2. 折线图显示最近7天DAU增长12% 3. 右下角弹窗提示新版本v2.3.1可用 需要我提取具体数据或执行操作吗4. 实际应用中的优化经验4.1 降低Token消耗的技巧初期测试发现每次图片解析要消耗约800-1200 tokens。通过两个策略显著降低成本分辨率预处理在image-analyzer技能配置中添加尺寸限制{ image: { maxWidth: 1024, maxHeight: 768, quality: 80 } }缓存机制对重复出现的知识库图片用MD5哈希值建立缓存openclaw skills config image-analyzer --set cache.enabledtrue4.2 知识库对接方案我们团队用GitBook管理文档通过自定义技能实现实时同步// ~/.openclaw/skills/gitbook-sync.js module.exports { name: gitbook-sync, actions: { async searchDocs({ query }) { const res await fetch(https://api.gitbook.com/search?q${encodeURIComponent(query)}); return res.json(); } } }在飞书中只需输入查文档用户登录接口规范机器人就会自动返回GitBook最新内容。5. 你可能遇到的典型问题5.1 图片上传无响应现象上传图片后机器人长时间不回复 排查步骤检查image-analyzer技能日志openclaw logs --skill image-analyzer确认模型服务是否支持多模态curl http://localhost:5000/v1/models | grep vision测试直接调用APIcurl -X POST http://localhost:5000/v1/chat/completions \ -H Content-Type: application/json \ -d { model: qwen3.5-35b-a3b-fp8, messages: [{ role: user, content: [ {type: text, text: 描述这张图片}, {type: image_url, image_url: {url: file:///path/to/test.jpg}} ] }] }5.2 中文乱码问题如果返回内容出现乱码在网关启动时指定编码openclaw gateway start --env LC_ALLzh_CN.UTF-8获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。