一家车企的AI路线抉择:对标Anthropic,意味着什么?
理想汽车抄了一份很“轴”的作业所有人都扑向OpenAI时李想却盯上了硅谷最不“讨喜”的那个男人。当一家靠“冰箱彩电大沙发”出圈的车企开始奉行纯粹到骨子里的模型信仰这盘棋远比我们看到的要深。01 两条平行线在同一个拐点交汇2025年的一场技术闭门会上有人问李想“你心里理想的AI公司长什么样”没有一秒迟疑他给出了一个让全场意外的名字Anthropic。不是OpenAI不是特斯拉。这种“意外”恰恰是理解理想这几年战略转向的密钥。如果把李想和达里奥·阿莫迪的人生轨迹摊开会发现一条隐秘但结实的暗线。达里奥普林斯顿物理学博士从神经科学半路杀进AI在OpenAI扛起了GPT-2和GPT-3的大旗。2021年他拉着妹妹丹妮拉出走自立门户创立Anthropic。他骨子里就不信“堆参数”能解决一切问题。他要的是模型的纯粹能力理解力、推理力、面对复杂任务时直接穿透的能力。硅谷敬他但也嫌他太“轴”——别人都在追多模态、追C端流量时他在死磕让模型自己能完成完整的工作链条。李想高中辍学从泡泡网到汽车之家再到押注增程路线在一片嘲讽里把理想汽车做到了一线阵营。就当全世界以为他会把“冰箱彩电大沙发”的故事讲到地老天荒时他扔出一句“理想是一家人工智能企业。”2024年到2026年他的内部讲话、财报会、战略信里反复出现一个判断“模型能力本身是最关键的。Anthropic的Claude已经证明了纯模型这条路天花板极高。我们决定跟。”这不是市场营销话术。往后理想的每一步动作背后都站着那个蓝色Logo的幽灵。02 他们要的不是“变乖”的模型是“能扛事”的模型很多人一提到Anthropic就想到“AI安全”。这是个巨大误解。Anthropic真正的护城河不是给模型套上道德枷锁而是用独有的训练方法——比如宪法式AI、RLHF的深度改造——让模型建立起更强的理解力和判断力。让一个模型能自己读完一整份合同、写完整段代码、独立完成多步骤决策而不是把任务拆成一堆碎片。这才是打动李想的核心。他清楚得很车上的大模型要面对的场景复杂度是指数级的。一个经典案例智能驾驶在十字路口对向车道有一辆逆行的三轮车路边还有一个打伞的行人。用传统“感知—规划—控制”的流水线解法模型会把这三个元素分开识别然后交给规则层层判断响应迟了零点几秒可能就是一场事故。而一个端到端的能力模型看到的是整个场景。它会直接理解“这是一个混乱的路口有一个不守规矩的非机动车和一个可能横穿的行人我需要减速绕行。”就像一个老司机那种条件反射式的判断。这靠的不是更精确的标注而是模型自身的理解力。李想把这个方向看得很透。理想正在推进的VLA视觉-语言-动作司机大模型本质就是在造这样一个“机器老司机”——直接从视觉输入到驾驶动作输出中间没有那么多拆解、分类、打标签的环节。传统的感知-规划-控制链路正在被一个统一的端到端模型慢慢吃掉。所以他反复说他要的不是“助手”是生产工具。助手是被动的工具是能独立完成任务的。这之间的鸿沟就是Claude和普通对话机器人的区别。03 重构开发范式从补丁思维到能力思维传统车企做智能化逻辑很简单路测发现问题工程师写规则打补丁。这是典型的“补丁思维”——永远在追着问题跑成本是指数级的。而Anthropic给了一套完全不同的范式。他们的宪法式训练不是事后纠错而是让模型在训练阶段就内化一套判断标准。模型自己就能判断什么情况是危险的什么行为是不该做的——这种能力是“长”在模型参数里的而不是外挂在规则引擎上的。理想在自己体系里复刻了这个思路。他们组建的100人超级对齐团队干的不是传统测试部门的事。他们是在训练一个更强大的模型去审视另一个模型用模型的判断力去挖掘潜在问题然后从训练层面把新的数据注入让主模型自己学会规避。这种迭代方式和传统OEM“发现一个问题修一个问题”的补丁模式已经完全不在一个维度上了。2025年理想通过OTA 7.5推送了这套被称为“超级对齐”的工程化成果。行业没有多少掌声。但看得懂的人心里都清楚这是把一种全新的研发范式塞进了在真实道路上跑到时速120公里的钢铁躯体里。李想事后说了句很淡的话“我们不是做Demo我们是真交付。”这恰恰是达里奥最在意的逻辑——真正的能力是系统自身长出来的不是外面贴上去的。04 芯片、模型、组织全都赌在同一张底牌上走进理想2026年的研发体系三件事让人发冷。自研推理芯片“马赫100”。5nm制程2026年量产直接替代英伟达Orin-X。表面看是为了降本底层逻辑完全不同端到端大模型在车上做推理是一个完整闭环任何第三方芯片都会变成一个不可控的黑箱。当模型必须直接面对物理世界做实时决策时算力架构必须掌握在自己手里。这和Anthropic对自己训练管道的控制欲一脉相承。全栈自研基座模型。从认知模型MindGPT到驾驶基础模型MindVLA-o1完全自己做。不拿开源模型微调交差也不把灵魂挂到别人的API上。李想说得再直白不过“我们不会把命运押在别人的接口上。”组织结构推倒重来。研发体系被切成三大板块基座模型、软件本体、硬件本体。这本质上是在公司内部建了一个AI实验室工程团队的结构模型研究离产品不到一堵墙的距离。代价是什么2025年理想AI研发投入超过60亿占研发总费用的一半以上。当大部分车企还在纠结要不要搞端到端、用谁家的芯片时理想已经把全部身家押在了一张和Anthropic高度对位的蓝图上。05 为什么不是OpenAI为什么不是特斯拉OpenAI的ChatGPT有海量用户特斯拉的FSD跑了好几年。为什么偏偏是Anthropic答案不在安全在专注度。第一纯粹。驾驶场景不需要一个会写诗、会画画的模型。它只需要一个能真正“看懂”物理世界、做出即时判断、并且每一次判断都可追溯的模型。Anthropic在纯文本推理和长链条任务上的突破让李想看到一个足够强的单一模型能胜任复杂度极高的垂直场景。第二“轴”。达里奥有个执念如果模型能力不够宁愿不上线。李想在自己的地盘也学了这句话“我们交付的是确定性的能力不是概率。”这种对模型能力的洁癖比任何技术路线都更难对齐。第三非共识。在所有人都在追多模态娱乐、AI社交的时候李想盯上了硅谷那个最“不讨喜”的人。不讨喜是因为他走了另一条路。达里奥反复讲“真正能独立完成任务的模型才是改变产业的东西。”李想没到处喊但他用真金白银投了赞成票2026年被他称为AI头部公司的最后窗口期。自研芯片必须量产VLA必须全系标配——不是在展台上摆一辆概念车而是成千上万辆交付出去。06 同一种频率当然可以把这一切简单理解为“理想在学Anthropic”。但更深的地方也许是另一回事当一个行业走进无人区最远的探路者会自然吸引同一频率的人。达里奥的父亲死于一种罕见病这件事刻进了他的时间线——想尽早做出能真正解决问题的AI又怕AI没准备好就失控。所以他一边疯狂加速一边死磕模型的内在能力。李想的轨迹里有同样的张力一边喊2026年是窗口期一边在模型训练上砸下最重的筹码。他经历过混动技术的群嘲、亏损的至暗时刻、交付期的生死博弈。他知道在物理世界里容错率是零。这两个人在世俗层面毫无交集。但在工程哲学的底色上共享一种执念真正重要的技术只能从根基上生长出来不能拼接组合出来。这才是理想和Anthropic之间那条真正的暗线——不是崇拜是被同一个命题击中之后走向了相似的方向。当一台以“没有里程焦虑”起家的增程车开始在模型能力上投下全部赌注当一个做过网站、写过评测的连续创业者把公司研发体系按AI实验室的逻辑彻底重写——这已经不只是企业转型。它指向一幅更大的画面汽车产业百年变局走到下半场真正的裁判权正在从发动机和底盘上慢慢转移到模型的理解力、判断力和它解决问题的纯能力上。也许用不了多久用户走进店里问的不再是百公里加速几秒而是“这台车的AI自己能拿主意的时候有多稳”李想赌的就是在所有人反应过来之前率先站上那个位置。