EurekaClaw:本地优先的多智能体AI研究助手,自动化文献到论文全流程
1. 项目概述如果你是一名研究者无论是学生、工程师还是学者大概率都经历过这样的时刻面对一个全新的研究问题你需要先花上几天甚至几周时间在海量的文献中寻找线索然后尝试构建理论假设接着是漫长而痛苦的证明推导最后还要将零散的思路整理成一篇结构严谨的论文。这个过程不仅耗时费力而且充满了不确定性。EurekaClaw 的出现正是为了解决这个痛点。它是一个多智能体 AI 研究助手旨在将你从一个模糊的问题或猜想直接带到可发表的研究成果。从文献爬取、假设生成、定理证明到实验验证和 LaTeX 论文撰写它试图将整个研究流程自动化让你能更专注于核心的创意与洞察。简单来说EurekaClaw 是一个“研究之爪”它试图帮你抓住那些稍纵即逝的“尤里卡时刻”。它的核心设计理念是“本地优先”和“隐私至上”这意味着你的研究数据和过程都运行在你自己的机器上无需担心数据泄露。项目完全开源采用 Apache 2.0 许可证为学术社区提供了一个透明、可扩展的研究自动化工具。2. 核心架构与设计哲学2.1 多智能体协同的工作流EurekaClaw 不是一个单一的、庞大的模型而是一个由多个专门化智能体组成的协同系统。这种设计模仿了现实世界中的研究团队分工。每个智能体负责研究流程中的一个特定环节并通过一个中央的“知识总线”进行通信和数据交换。这种模块化设计有几个显著优势首先是鲁棒性单个环节的失败不会导致整个流程崩溃其次是可解释性你可以清晰地追踪每个智能体的决策和输出最后是灵活性你可以针对特定领域替换或增强某个智能体的能力。整个流水线大致可以分为七个阶段形成一个自底向上的研究闭环问题解析与领域界定智能体首先理解你的输入一个猜想、一组论文或一个领域并将其转化为明确、可操作的研究任务。文献检索与综述利用集成的工具如 arXiv、Semantic Scholar API爬取相关文献并进行摘要、交叉引用和关键发现提取构建当前研究的知识图谱。假设生成与头脑风暴基于文献综述智能体尝试发现模式、识别研究空白并生成新颖的、可验证的假设或猜想。这一步是创造力的核心。定理证明与形式化验证这是 EurekaClaw 的强项。它采用一个多阶段的证明管道从非形式化的论证草图开始逐步精炼最终可能利用 Lean4 等定理证明器进行形式化验证确保逻辑的严密性。实验设计与数值验证对于涉及计算或统计的猜想智能体会生成代码通常是 Python来运行实验验证理论边界或通过模拟来支持定理结论。论文撰写与排版将上述所有产出定理、证明、实验图表、引用整合成一篇结构完整的学术论文直接输出为 LaTeX 源码包含定理环境、图表和正确的 BibTeX 引用。评估与持续学习完成一轮研究后系统会使用内置的“科学家基准”进行评估并将成功的证明策略“蒸馏”为可复用的“技能”存入技能库用于提升未来任务的效率。2.2 本地优先与隐私设计在 AI 应用日益云化的今天EurekaClaw 坚持“本地优先”原则显得尤为可贵。所有计算包括大语言模型的推理通过 API 调用但数据不离开你的控制、文献处理、代码执行都发生在你的本地环境或你控制的服务器上。原始论文数据、你提出的猜想、生成的中间草稿都不会被上传到项目方的服务器。这对于处理敏感或未公开研究想法的用户来说是至关重要的安全保障。它通过支持主流的模型 API如 Anthropic Claude来实现能力你只需要提供自己的 API 密钥即可。2.3 技能系统与持续进化EurekaClaw 不仅仅是一个执行固定流程的工具它具备“持续学习”的能力。其核心机制是“技能系统”。每当一个智能体成功解决一个子问题例如用一种巧妙的方法证明了某个不等式这个解决方案的“精髓”会被抽象、总结并存储为一个“技能”。技能就像是一个个可复用的证明技巧或研究启发式。当下次遇到类似问题时系统可以快速从技能库中检索并应用相关技能从而加速研究进程。用户也可以手动编写.md文件来添加自定义技能这使得工具能够适应特定子领域的专业知识。3. 三种输入模式与实战场景解析EurekaClaw 提供了三种不同粒度的入口对应研究的不同起始阶段。理解何时使用哪种模式是高效利用它的关键。3.1prove模式从精确猜想出发这是最直接、目标最明确的模式。当你已经有一个具体的数学猜想或理论命题需要证明时就使用它。命令示例eurekaclaw prove “Transformer 架构的样本复杂度上界为 O(L·d·log(d)/ε²)” --domain “机器学习理论” --output ./my_theorem内部流程解析与形式化智能体首先会尝试理解你的自然语言猜想并将其转化为更精确的数学表述。它会询问自己变量L,d,ε分别代表什么复杂度定义是什么文献调研自动在--domain指定的领域如“机器学习理论”内搜索相关文献寻找已有的样本复杂度分析工具、引理或反例。证明规划基于调研结果制定证明策略。是先归纳后放缩还是构造对抗性示例它会将大猜想分解为一系列待证明的引理。逐条证明调用证明智能体结合技能库和定理证明器尝试证明每一个引理。如果卡住会回溯并尝试其他策略。整合与撰写将所有证明步骤整合生成包含定理陈述、证明过程和引用的 LaTeX 文档。适用场景理论计算机科学、纯数学、统计学习理论中已有明确猜想需要形式化证明的场景。注意事项猜想的表述要尽可能清晰、无歧义。模糊的陈述会导致智能体在第一步就迷失方向。--domain参数非常重要它限定了文献搜索和背景知识库的范围能显著提升效率。对于极其复杂或前沿的猜想可能需要人工介入通过“Gate”模式来引导证明方向。3.2from-papers模式从现有工作延伸你的研究往往始于几篇关键的种子论文。此模式允许你输入 arXiv ID 或 DOI让 EurekaClaw 深入分析这些论文并寻找可扩展的方向或潜在缺陷。命令示例eurekaclaw from-papers 1706.03762 2005.14165 --domain “注意力机制”内部流程深度解析智能体会下载并精读你提供的每一篇论文理解其核心贡献、假设条件、证明方法和实验设置。交叉对比与 gap 分析对比多篇论文识别它们之间的共同点、矛盾点以及尚未被探索的“空白”区域。例如论文 A 在假设 X 下证明了结论 Y论文 B 在假设 Z 下证明了结论 Y那么假设 X 和 Z 之间是否存在一个更一般的假设生成研究问题基于 gap 分析提出具体的新研究问题或猜想。例如“能否将论文 A 的结论推广到非平稳的环境”或“论文 B 的实验结果在更大规模的数据集上是否依然成立”自动探索系统会选取最有潜力的几个问题自动进入prove或explore流程进行深入探索。适用场景文献综述、寻找论文创新点、复现并验证前人工作、进行对比研究。注意事项提供的种子论文质量直接决定产出方向。选择领域内奠基性或最新突破性的论文效果更好。此模式可能会生成大量潜在方向需要研究者具备一定的鉴别力从中筛选出最有价值的路径。3.3explore模式从广阔领域发现当你只有一个感兴趣的大方向但还没有具体问题或种子论文时可以使用此模式。它像一个自动化的领域探索者。命令示例eurekaclaw explore “多臂老虎机理论的最新进展”内部流程领域测绘以输入的关键词为圆心广泛爬取相关文献绘制该领域的知识图谱识别热门子领域、关键学者和经典理论。趋势与模式识别分析文献发表的时间线、方法论的演变识别当前的研究趋势和尚未被充分探索的“冷门”但可能有潜力的方向。生成前沿报告与猜想列表输出一份该领域的调研报告并列出若干个新提出的、可供进一步研究的猜想或实验设想。适用场景进入一个全新领域时的快速摸底、寻找交叉学科的研究机会、为基金申请或课题设计提供灵感。注意事项输出可能比较宽泛需要研究者结合自身兴趣和专长进行二次聚焦。由于搜索范围广耗时可能较长且对 API 调用量需求较大。4. 详细安装与配置指南EurekaClaw 提供了多种安装方式以适应不同用户的需求。我将重点介绍最推荐且最通用的两种Docker 安装和基于uv的本地安装。4.1 Docker 安装推荐用于快速部署与隔离Docker 方案将所有依赖Python, Node.js, 系统库打包在一个容器中实现了完美的环境隔离避免了与宿主机环境冲突是部署在服务器或快速上手的首选。基础安装CPU版本# 1. 拉取最新的 Docker 镜像约10GB仅需一次 docker pull eurekaclaw/eurekaclaw # 2. 运行容器并启动浏览器UI。将 sk-ant-... 替换为你自己的 Anthropic API Key。 docker run --rm -it -p 8080:8080 -e ANTHROPIC_API_KEYsk-ant-... eurekaclaw/eurekaclaw # 3. 在宿主机浏览器中打开 http://localhost:8080 即可访问。--rm参数表示容器退出时自动清理-it分配一个交互式终端-p 8080:8080将容器的 8080 端口映射到宿主机的 8080 端口。使用 GPU 加速NVIDIA 如果你的研究涉及大量数值计算或实验并且拥有 NVIDIA GPU可以使用 GPU 镜像。# 确保宿主机已安装 NVIDIA 容器工具包 (nvidia-container-toolkit) docker run --rm -it -p 8080:8080 --gpus all \ -e ANTHROPIC_API_KEYsk-ant-... eurekaclaw/eurekaclaw:gpu:gpu标签的镜像包含了 CUDA 12.4 等深度学习环境能显著加速实验运行环节。持久化数据与配置 为了避免每次启动容器都重新配置可以将配置文件和生成的数据目录挂载到宿主机。# 1. 在宿主机创建配置目录并复制示例配置文件 mkdir -p ~/.eurekaclaw cp .env.example ~/.eurekaclaw/.env # 使用文本编辑器编辑 ~/.eurekaclaw/.env填入你的 API KEY 和其他设置 # 2. 运行容器并挂载目录 docker run --rm -it -p 8080:8080 \ --env-file ~/.eurekaclaw/.env \ -v ~/.eurekaclaw:/root/.eurekaclaw \ eurekaclaw/eurekaclaw这样你的 API Key、会话历史、生成的论文和技能库都会保存在宿主机的~/.eurekaclaw目录下。在远程服务器上使用 对于计算资源更强的远程服务器可以通过 SSH 端口转发在本地访问。# 在本地终端执行将本地8080端口转发到服务器的8080端口 ssh -L 8080:localhost:8080 useryour-server-ip # 在服务器上使用 host 网络模式运行容器避免复杂的端口映射 docker run --rm -it --network host \ -e ANTHROPIC_API_KEYsk-ant-... \ eurekaclaw/eurekaclaw--network host让容器直接使用宿主机的网络这样在容器内启动的服务如 UI可以直接通过服务器的localhost:8080访问再通过 SSH 隧道映射到你的本地机器。4.2 使用 uv 进行本地安装推荐给开发者与高级用户如果你需要深度定制、开发新功能或者希望更紧密地集成到本地 Python 环境推荐使用uv这个快速的 Python 包管理器和安装器。步骤详解# 1. 安装 uv如果尚未安装。它是一个用 Rust 写的极速 Python 工具。 curl -LsSf https://astral.sh/uv/install.sh | sh # 安装后重启终端或运行 source $HOME/.local/bin/env 来激活 uv。 # 2. 克隆仓库 git clone https://github.com/EurekaClaw/EurekaClaw cd EurekaClaw # 3. 创建并激活虚拟环境。uv 会自动下载指定版本的 Python。 uv venv --python 3.11 .venv source .venv/bin/activate # Linux/macOS # 在 Windows 的 PowerShell 中.venv\Scripts\Activate.ps1 # 4. 安装 Python 依赖和前端依赖 uv pip install -e . # -e 表示可编辑模式方便修改代码 cd frontend npm install cd .. # 安装 Node.js 依赖 # 5. 安装内置技能并进行初始配置 eurekaclaw install-skills eurekaclaw onboard # 交互式向导会引导你设置 API Key 和其他偏好uv的安装速度远超传统的pip并且能更好地处理依赖冲突。eurekaclaw onboard命令会创建一个.env文件你可以在其中精细调整模型选择、推理参数等。4.3 配置核心解析安装完成后最重要的就是配置文件.env。除了必填的ANTHROPIC_API_KEY以下几个配置项对研究行为有重大影响EUREKACLAW_MODEL默认为claude-sonnet-4-6。这是系统主要的推理引擎。你可以根据任务复杂度在 Anthropic 提供的模型如claude-haiku更快更便宜claude-opus更强但更贵或其他兼容 API 的模型间切换。模型的选择直接影响生成质量、速度和成本。GATE_MODE默认为auto。这是人机交互的“闸门”模式。none完全自动无需人工干预。auto系统在关键决策点如选择证明策略、评估假设可行性自动暂停并在 CLI 或 UI 中给出选项等待用户确认或选择。这是平衡效率与控制力的推荐模式。human在每个主要阶段结束后都暂停等待用户详细审查和批准。THEORY_PIPELINE默认为default。对于理论证明任务可以选择memory_guided模式该模式会更积极地利用技能库和历史会话中的记忆来指导证明可能对复杂、递归性的问题更有效。EXPERIMENT_MODE默认为auto。系统会根据猜想性质决定是否运行数值实验。设为true则强制运行实验false则跳过。实验能提供直观证据但也会增加运行时间和计算开销。5. 核心功能模块深度剖析5.1 文献爬取与知识图谱构建EurekaClaw 的文献模块不仅仅是简单的关键词搜索。它集成了 arXiv 和 Semantic Scholar 的 API实现智能化检索。工作流程查询扩展系统会首先解析你的问题或领域关键词利用 LLM 生成一系列同义词、相关术语和上下位概念以扩大检索范围避免遗漏。分层检索先进行广度检索获取大量相关论文的元数据标题、摘要、作者。然后基于初步摘要的相关性评分选择 Top-K 篇进行全文抓取和深度解析。信息抽取与关联从全文或摘要中抽取核心贡献、关键定理、使用的方法、实验数据集和结论。随后系统会尝试在不同论文之间建立关联例如论文 B 引用了论文 A 的定理 3.1论文 C 改进了论文 B 的算法。这些关系被构建成一个知识图谱。摘要与报告生成最终它会生成一份结构化的文献综述概述领域现状、主要流派、未解决问题以及你提供的猜想在该图谱中的可能位置。实操心得对于非常新兴的领域arXiv 上的预印本比 Semantic Scholar 收录的期刊论文可能更重要。EurekaClaw 的检索策略对此有优化。文献检索的深度和广度可以通过环境变量进行调整如ARXIV_MAX_RESULTS。对于探索模式可以设大一些对于精确证明模式可以设小一些以节省时间和 API 成本。5.2 定理证明的七阶段管道这是 EurekaClaw 的技术核心其证明过程并非一蹴而就而是经过层层精炼。自然语言理解与分解将用户输入的自然语言猜想转化为结构化的“研究计划”并分解为子目标。非形式化论证草图用通俗的数学语言和逻辑勾勒出证明的大致思路和步骤。这一步不追求严格性重在理清逻辑脉络。引理识别与形式化陈述从草图中识别出需要独立证明的关键引理并用更精确的数学语言仍可能是半形式化的重新陈述它们。证明策略选择为每个引理从技能库中匹配或生成证明策略。例如是使用归纳法、反证法、构造法还是利用已知定理进行推导逐步推导与填充在选定的策略框架下进行详细的数学推导填充每一步的细节。系统会调用计算工具如 WolframAlpha进行符号计算或数值验证。形式化验证可选对于支持的形式化系统如 Lean4尝试将证明过程转化为形式化代码并由定理证明器进行机器验证。这是最高级别的正确性保证。整合与润色将所有引理的证明整合回主定理的证明中并润色语言使其符合学术写作规范。注意事项并非所有数学领域都能被当前的形式化系统如 Lean4完美覆盖。对于高度依赖几何直觉或特定公理体系的领域形式化验证可能失败或无法进行但这不影响前几步生成有价值的证明思路。证明管道的迭代次数THEORY_MAX_ITERATIONS限制了对一个猜想的“攻坚”时长。对于简单猜想可能一次通过复杂猜想可能需要多次回溯和策略调整。5.3 实验运行与数值验证模块理论需要实践的检验。EurekaClaw 的实验模块旨在为理论猜想提供经验支持。运作方式实验方案生成分析猜想内容自动设计验证实验。例如对于一个关于算法复杂度的猜想它会生成代码来测量不同输入规模n下的实际运行时间并与理论上的O(n log n)曲线进行拟合比较。代码生成与执行使用安全的代码执行环境如 Docker 沙箱来运行生成的 Python 代码。代码会包含数据生成、算法实现、度量计算和可视化绘图。结果分析与置信度评估分析实验结果计算与理论预测的吻合度如 R² 分数并给出一个置信度评分。如果实验结果与理论严重偏离系统会标记该猜想或引理为“低置信度”并可能触发证明过程的重新评估。配置要点实验模块依赖于本地或容器内的 Python 科学计算栈NumPy, SciPy, Matplotlib。确保这些依赖已安装。对于需要特殊硬件如 GPU的实验你需要使用:gpu标签的 Docker 镜像并在配置中启用 GPU 支持。5.4 技能系统让 AI 真正“学会”研究技能是 EurekaClaw 实现持续学习的载体。一个技能通常包含触发条件描述何种类型的问题或证明情境下该技能可能有用。动作描述具体的操作步骤或推理模板。示例展示该技能成功应用的一到多个历史案例。技能的生命周期蒸馏在一个研究会话成功后系统会自动分析会话记录识别出其中可泛化的推理模式并将其“蒸馏”成一个新的技能文件Markdown 格式存入~/.eurekaclaw/skills/目录。索引与检索所有技能会被向量化并存入索引。当遇到新问题时系统会通过语义相似度搜索召回最相关的技能。注入与应用被召回的技能会作为上下文提示的一部分注入到相关智能体的思考过程中引导其采用已被验证有效的策略。自定义技能 你可以手动创建.md文件来添加领域专属技能。例如如果你专攻图论可以创建一个graph-theory-lemma.md描述如何利用“极值原理”来证明关于图中最大度的问题。这极大地提升了工具在垂直领域的专业性。6. 浏览器 UI 与 CLI 的协同使用EurekaClaw 提供了浏览器图形界面和命令行界面两种交互方式它们各有优劣适合不同场景。6.1 浏览器 UI可视化与监控通过eurekaclaw ui --open-browser启动。UI 基于 React TypeScript 构建提供了以下核心视图会话仪表盘总览所有历史研究会话包括状态进行中、完成、失败、标题和创建时间。实时智能体追踪以时间线或流程图的形式实时展示各个智能体爬虫、生成器、证明器、实验员、作者的活动状态和它们之间的消息传递。这对于理解系统“思考”过程至关重要。证明草图视图交互式地展示证明的层级结构你可以展开或折叠引理查看每个步骤的详细推导。技能管理器浏览、搜索、启用或禁用技能库中的技能。你可以看到哪些技能被频繁调用以及它们的效果评估。交互式闸门当GATE_MODE设为auto或human时关键的决策点会以弹窗或侧边栏通知的形式呈现等待你的选择。例如系统可能会问“我发现了两种可能的证明路径路径 A 使用归纳法预计需要 5 步路径 B 使用反证法预计需要 3 步但风险较高。请选择。”适用场景当你开始一个全新的、不确定性的探索任务时使用 UI 可以直观地把控全局并在关键节点进行人工引导。6.2 命令行界面自动化与集成CLI 是进行批量处理、脚本化集成和后台任务的主力。核心命令回顾eurekaclaw prove/conjecture启动一个证明任务。eurekaclaw explore/domain启动一个领域探索任务。eurekaclaw from-papers从指定论文启动任务。eurekaclaw eval-session session_id对已完成会话的产出进行量化评估。eurekaclaw list-sessions列出所有会话。eurekaclaw resume session_id恢复一个暂停或中断的会话。高级用法示例# 1. 批量验证多个猜想并将输出保存到不同目录 for conj in “conjecture1.txt” “conjecture2.txt”; do eurekaclaw prove “$(cat $conj)” --output ./results/$(basename $conj .txt) done wait # 2. 将 EurekaClaw 集成到你的论文写作流水线中 # 假设你有一个 ideas.md 文件每行是一个猜想 while IFS read -r line; do if [ ! -z “$line” ]; then eurekaclaw prove “$line” --domain “MyDomain” --quiet --output ./auto_drafts fi done ideas.md # 3. 使用 --gate-mode none 进行全自动夜间批处理 eurekaclaw explore “quantum machine learning” --gate-mode none --output ./overnight_run适用场景当你已经明确任务流程需要处理大量类似任务或者希望将 EurekaClaw 作为后端服务集成到自己的工具链中时CLI 是更高效的选择。7. 常见问题与故障排查实录在实际使用中你可能会遇到一些典型问题。以下是我在深度使用过程中总结的排查思路和解决方案。7.1 安装与启动问题问题Docker 容器启动后无法通过localhost:8080访问 UI。检查端口映射确保-p 8080:8080参数正确且宿主机的 8080 端口未被其他程序占用。可以尝试改为-p 8081:8080然后访问localhost:8081。检查容器日志运行docker logs container_id查看容器内应用是否成功启动有无报错。常见错误是缺少ANTHROPIC_API_KEY环境变量。防火墙/SELinux在 Linux 服务器上检查防火墙是否放行了 8080 端口。对于 SELinux可以尝试临时禁用或添加相应规则。问题uv 或 pip 安装时依赖冲突或编译失败。确保 Python 版本严格使用 Python 3.11 或 3.12。使用python --version确认。uv venv --python 3.11会自动获取正确版本。使用全新的虚拟环境删除旧的.venv目录重新创建。避免全局 Python 环境的影响。系统依赖某些 Python 包如tokenizers可能需要系统级的编译工具如gcc,cmake。在 Ubuntu/Debian 上可以运行sudo apt-get install build-essential。7.2 API 与网络问题问题任务卡在“初始化”或“文献检索”阶段长时间无响应。API 密钥有效性首先确认你的 Anthropic API 密钥有效且有足够的额度。可以在命令行用curl简单测试。网络连接EurekaClaw 需要访问 arXiv、Semantic Scholar 等外部 API。确保你的网络环境可以正常访问这些站点。如果使用代理需要在.env文件中配置HTTP_PROXY和HTTPS_PROXY环境变量。API 速率限制Anthropic API 有调用频率限制。如果短时间内提交大量任务可能会被限流。错误信息通常会在日志中显示。解决方案是调整EUREKACLAW_MAX_CONCURRENT_REQUESTS配置降低并发数或分批处理任务。问题OAuth 认证失败使用 Claude Pro/Max 订阅。端口冲突OAuth 回调默认使用54545端口。确保该端口在宿主机上可用。如果使用 Docker确保端口映射正确-p 54545:54545。主机名在远程服务器使用 OAuth 时确保在 Anthropic 的 OAuth 应用设置中回调 URL 正确配置为服务器的公网 IP 或域名。使用--network host模式可以简化此问题。凭证文件权限确保挂载到容器的~/.config/ccproxy目录有正确的读写权限。7.3 研究过程与输出问题问题生成的证明看起来逻辑跳跃或使用了未定义的术语。检查输入清晰度回顾你输入的猜想是否足够精确、无歧义。尝试用更形式化的语言重新表述。调整GATE_MODE将GATE_MODE从auto改为human在每一个证明步骤后人工审核及时纠正错误的方向。利用技能库检查是否安装了正确的内置技能eurekaclaw install-skills。也可以为你所在的领域手动添加一些基础公理和常用引理作为自定义技能为 AI 提供更强的先验知识。问题文献检索结果不相关或数量太少。优化领域参数--domain参数极大地影响检索范围。尝试更具体或更宽泛的领域描述。例如将“优化”改为“非凸优化的一阶方法”。调整检索参数通过环境变量调整ARXIV_MAX_RESULTS增加数量和ARXIV_SORT_BY如按相关性relevance或新进度lastUpdatedDate排序。提供种子论文如果explore模式效果不佳可以先用from-papers模式提供几篇你知道的核心论文让系统在此基础上扩展检索。问题实验模块运行出错或结果不可信。沙箱环境实验代码在隔离的 Docker 沙箱中运行。检查宿主机 Docker 服务是否正常以及是否有足够的磁盘和内存资源。代码审查在 UI 的“实验”标签页下查看生成的代码。有时 AI 生成的代码可能存在边界条件错误或导入错误。你可以手动修正并重新运行。实验设计AI 设计的实验可能过于简单或存在偏差。对于关键结论建议将生成的实验方案作为初稿由你进行复核和优化。7.4 性能与成本优化问题任务运行速度慢API 调用费用高。模型降级对于文献摘要、代码生成等对推理深度要求不高的任务可以在配置中为特定智能体指定更小、更快的模型如claude-haiku而非全部使用claude-sonnet。启用缓存EurekaClaw 会对 API 响应和文献内容进行本地缓存。确保缓存目录默认在~/.eurekaclaw/cache有足够空间并定期清理过期缓存。限制迭代与深度适当降低THEORY_MAX_ITERATIONS证明最大迭代次数和EXPLORATION_DEPTH探索深度避免在死胡同里花费过多资源。使用--dry-run模式在 CLI 中某些命令支持--dry-run参数它只规划任务而不实际执行 API 调用和计算可以用来评估任务的复杂度和可行性。问题生成的 LaTeX 文档编译失败或有格式问题。检查 LaTeX 环境EurekaClaw 生成的.tex文件需要完整的 LaTeX 发行版如 TeX Live才能编译。确保你的系统已安装。依赖宏包生成的文档可能会用到一些特定的 LaTeX 宏包如algorithm2e,tikz。如果编译报错缺失宏包根据提示安装即可。手动微调AI 生成的 LaTeX 在格式上如图表位置、引用样式可能不完全符合你的目标期刊或会议模板。应将 EurekaClaw 的输出视为高质量的初稿在此基础上进行最终的格式调整和语言润色。EurekaClaw 代表了一种令人兴奋的研究范式转变——从纯粹的工具辅助到人机协同的智能研究伙伴。它并非要取代研究者而是将研究者从繁琐、重复的信息搜集和初步推导中解放出来让你能更专注于高层次的创意、批判性思考和最终的成果把关。它的价值不仅在于产出可发表的草稿更在于其探索过程中可能为你揭示的那些意想不到的联系和可能性真正助力你捕捉下一个“尤里卡时刻”。