订阅制 → Token 计费是大趋势算力如水电一般来计费是合理的吗GitHub Copilot 将于 2026 年 6 月 4 日正式切换 Token 计费。这不是一家公司的决策而是整个 AI 行业计费逻辑的系统性转变。一个信号GitHub Copilot 的计费革命2025 年 4 月 24 日GitHub 发布公告自 2026 年 6 月 4 日起Copilot 将废弃原有的高级请求单元PRUs改用统一的Token 计费货币——“Copilot premium requests”。新规则很简单1 token $0.04不同模型和任务消耗不同数量模型 / 任务Token 消耗GPT-4o轻量请求1 tokenGPT-4.1、o3-mini5 tokensClaude 3.7 Sonnet、Gemini 2.5 Pro10 tokensAgent 模式简单任务25 tokensAgent 模式复杂任务最高 150 tokens订阅套餐包含的 token 额度用完后按 $0.04/token 超量计费。不再有 fallback——额度耗尽即断供。GitHub CEO Thomas Dohmke 的解释听起来很合理“AI 成本正在快速下降。Token 计费让我们可以把这些节省直接传递给开发者。随着模型效率提升token 成本会继续下降。”但社区的反应远没有这么平静。这不是孤例整个行业都在转型GitHub 的举动只是一场更大转型的缩影。OpenAI早在 API 层就一直是 token 计费现在连消费端产品也开始叠加按量付费Deep Research $2/次、Advanced Voice $0.05/分钟、Operator $0.06/次。Anthropic的 Claude API 向来按 token 收费企业级合同也越来越多地从按席位转向按消耗。Google Gemini保持订阅底价但重型任务溢价按量计算。整体趋势非常清晰订阅底座 超量按需的混合模式正在成为行业标准纯平价订阅正在消失。这背后的驱动力很直接AI 推理成本每 18-24 个月下降约 10 倍——按量计费可以让成本下降直接惠及用户平价订阅模式下重度用户一直在被轻度用户补贴不可持续企业客户要求成本与实际价值挂钩而不是买一个按席位收费的黑盒Sam Altman 的比喻AI 是 21 世纪的电力支持这一趋势的人喜欢引用一个类比AI 就像电力。Sam Altman 多次将 AI 定性为21 世纪的电力他斥资 5000 亿美元的 Stargate 项目也正是在建设这套AI 电网基础设施。Token 计费在这个框架里顺理成章——就像你用多少度电付多少电费用了多少算力付多少 token 费用透明、公平、可预测。这个类比的成立之处AI 模型需要巨额集中资本投入就像发电厂输出智能/算力被广泛分发、增量消费成本随规模扩大而降低与电力历史高度吻合按 token 计费直接映射到 per-kWh 的电费逻辑从这个角度看Token 计费不仅合理还是唯一诚实的计费方式。但这个比喻有几处根本性的裂缝问题在于AI 和电力并不一样。裂缝一电是标准品AI 不是从任何插座流出的电物理属性完全相同。但不同 AI 模型的能力、安全性、倾向、输出质量差异巨大。GPT-4o 和 DeepSeek V3 的 API 都按 token 计费但前者的输出成本是后者的9 倍。你付的不只是算力还有模型能力、训练数据质量、RLHF 对齐工程的溢价。把 AI 算力比作电就像把米其林三星餐厅的食材成本比作普通大排档——都叫食材但价格里包含的东西完全不同。裂缝二它有软件护城河不只是基础设施电力没有厂商锁定——你换一家电力公司家里的插座和电器都能照常运行。AI 不是这样的。你在 OpenAI 上精心调优的系统 Prompt、在 Claude 上构建的 RAG 管线、基于特定模型行为的 Agent 工作流——都深度绑定在某个特定模型的特性上。换一家 provider几乎等同于重建。这不是基础设施的逻辑而是平台生态的逻辑。裂缝三成本不可预测性是真实的用户痛点电费账单你基本能提前估算——上个月用了多少度这个月大概差不多。Token 计费的不可预测性高得多一次 Agent 模式的复杂任务可能消耗 150 tokens$6一次长文档总结可能比你预期多 10 倍的 token。GitHub 社区有人计算如果每天跑几个 Agent 工作流月底账单可能从 $10 飙到 $300。算力如水电听起来公平但水电费账单不会因为你今天用水方式复杂就突然涨到十倍。裂缝四断供的后果不对等水电断供是紧急情况有法律保护。AI 服务 credits 用完直接断掉无降级体验没有任何保底。对于将 AI 深度集成进核心工作流的团队来说这是真实的业务风险。现实的价格对比谁在交叉补贴谁让我们看一组实际数字模型输入 $/MTok输出 $/MTok典型用途GPT-4o$2.50$10.00通用旗舰Claude 3.7 Sonnet$3.00$15.00复杂推理/长文本GPT-4o mini$0.15$0.60简单任务DeepSeek V3$0.27$1.10极致性价比DeepSeek R1推理$0.55$2.19推理任务DeepSeek V3 的输出成本是 GPT-4o 的1/9是 Claude Sonnet 的1/14。这意味着什么在许多日常编码和内容任务上顶尖模型的 Premium 溢价大部分来自品牌和习惯而不是可感知的能力差距。Token 计费的真正效果之一是让这种价格透明化——用户开始意识到可以路由到更便宜的模型而不是无脑用最贵的。这对整个生态是健康的竞争信号。一个合理的用户策略面对这一趋势有一套经过验证的应对思路任务路由策略 轻量任务QA、简单代码补全 → DeepSeek V3 / GPT-4o mini成本约 1/10 中等任务代码审查、文档总结 → GPT-4o / Claude Sonnet主力模型 重型任务多文件重构、复杂推理 → Claude Opus / GPT-4.5最高可靠性另外两个降本技巧Prompt CachingAnthropic 缓存命中的 token 成本是全价的 1/10$0.30 vs $3.00/MTok对系统提示词和长上下文场景效果显著Batch ProcessingOpenAI 批量 API 提供 50% 折扣适合非实时的批量任务结语合理但需要博弈Token 计费是合理的——它让成本与价值更对齐让 AI 成本下降的红利可以传递给用户也让市场竞争更透明。但**算力如水电的类比是不完整的**。AI 有品牌溢价、平台锁定、软件护城河和无法预测的 token 消耗模式——这些都是纯粹的公共基础设施所不具备的商业特性。真正需要警惕的是这个转型背后可能隐藏的另一面用按量计费更公平的叙事将真实成本从显性的订阅费转移到隐性的用量账单中在用户建立深度依赖之后再调价。这不是阴谋论这是所有平台生态的历史规律。用户能做的理解自己的用量模式建立模型路由意识保持多供应商的弹性不要把核心工作流 100% 锁死在单一 AI provider 上。算力可以像水电一样收费但你不必像用水电一样——别无选择。参考资料GitHub Blog、The Register、InfoQ、Anthropic 官方定价、OpenAI 官方定价、DeepSeek API Docs、VentureBeat、MIT Technology Review、Brookings Institution