上月末,一款名为 OpenClaw(原 Clawdbot)的开源 AI 助手在开发者社区横空出世。短短几天,这款能够在聊天软件中无缝处理邮件、日程的 Agent 在 GitHub 上收获了超 120k Star,并在一周内吸引了 200 万访客。
当这种复杂的生产力需求落地到具体的部署场景时,云大厂们给出了两套截然不同的解题思路。腾讯云和阿里云几乎在第一时间上线了 “轻量应用服务器” 的一键部署镜像,试图让用户以最低门槛拥有自己的 “数字员工”;火山引擎则紧随其后,但它选择扮演模型供应商的角色——不直接提供服务器舞台,而是作为 OpenClaw 可调用的模型源,提供多种 AI 模型 API。
打一个比方,火山引擎的方案是为用户提供舞台上演技精湛的演员,而阿里云和腾讯云则是把舞台、灯光、道具全部搭好。这场关于 “舞台” 与 “演员” 的不同选择,像极了去年巨头间那场关于 “ AI云市场第一定义权” 的暗战。
过去一年,阿里云和火山引擎两家云服务商在宣发上针锋相对,火山引擎凭借豆包在 C 端爆发式的流量,拿下了 MaaS 市场近半数的 Token 份额;然而,Omdia 的财报数据出炉时,阿里云依然以 35.8% 的营收份额稳居第一,超过了第 2 至第 4 名的总和。
一边是流量第一,一边是赚钱第一。这种 “双第一” 的格局背后,是中国AI云服务的游戏规则变了。从 2023 年的 “抢卡大战”,到 2024 年的 “MaaS 试水”,再到 2026 年,AI Infra 与 Workflow(工作流)的全面接管。
在这个路口,“Token 崇拜”开始退潮,“全栈工程”逐渐回归。胜负手在于谁能提供全栈式、可运营、甚至即使在极端供应链环境下依然稳健的 AI 基础设施。OpenClaw 代表的理念——Skill-based(基于技能)、主动式 Agent、多渠道接入,或许正成为企业级 AI 的未来方向。
Token 调用量,这个曾经只属于 NLP 工程师的技术参数,如今被强行推向了商业舞台的中央。
这种压力直接传导到了每一位云销售的 KPI 里。据雷峰网报道,2026 年,火山引擎的销售考核发生了剧烈变化:去年还能用 GPU 算力冲业绩,今年必须卖大模型及 AI 工具。每个销售的大模型业绩任务至少 1000 万打底,有的甚至高达 3000 万。阿里云同样如此,销售线正在经历一轮严酷的调整,只为备战这场 “MaaS 强攻”。
但在具体的商业战略中,不同位置的人对 Token 却有着截然不同的定义。
在火山引擎总裁谭待看来,Token 调用量是 AI 时代的 DAU,是新时代的流水。他的逻辑非常直接,“模型只有被调用才能发挥价值,越有价值的模型,调用量就越多。” 通过极致的性价比和 C 端应用(豆包)的协同,火山成功拿下了 MaaS 市场的半壁江山。
从信息论的角度来看,智能的本质是数据的压缩与解压缩。而在 Multi-Agent(多智能体)时代,Token 代表劳动力。限制 Token 的使用,等于限制生产力。而工作流推理(如 OpenClaw)注定会消耗大量 Token,因此降低 Token 推理成本,确是 2026 年云计算的一大方向。在这一点上,火山引擎无疑抓住了 AI 进化的加速度。
不过在热闹喧嚣之中,也需要一些冷思考。MaaS 确实增长迅速,但如果把目光仅局限在这个细分市场,显然有失偏颇。国家统计局数据显示,2025 年中国日均 Token 消耗量已飙升至 30 万亿,但 Omdia 的统计揭示了另一面:按 Token 计费的 MaaS 服务收入仅占整个 AI 云市场规模的不到 1%。

腾讯和阿里的判断在于,真正高价值的 “生产级 Token”——如金融风控、自动驾驶仿真、政务数据治理,往往并不走公有云 API。这些场景对数据安全、延时、合规有着极高的要求,企业更倾向于私有化部署或本地推理。
更不用说以后 MaaS 更大的应用场景在于让 AI 走下云端,走进移动端,将小模型塞进手机、汽车、机器人,进行离线运行。这部分巨大的算力消耗,被 Token 榜单无视了,但却支撑起了阿里云和腾讯云的营收底座。
正如腾讯云副总裁杨晨所说,单纯卖 Token 是一门 “粘性极差” 的生意。“看着量很大,但客户拿到 Key 随时会跑。AI 真正好的生意还是要去拼场景。”
在这个问题上,阿里云看得更深一步。它没有陷入 “唯 Token 论” 的虚无,也没有走向 “反 Token” 的极端。相反,过去一年阿里多次发起 “降价潮”,推动 Token 调用量实现 “成千上万倍的增长”。
Token 是燃料,但阿里想要引擎。因此它选择了一条务实的中间路线:强调长期 IaaS 与系统工程积累,向以 GPU 为核心的统一 AI 云演进。在 C 端通过通义千问的开源维持热度,在 B 端深水区则通过 “全栈云设施”抓住无法用 Token 计算的生意。
据报道,在阿里云上,使用 API 调用服务的客户和使用 GPU 算力的客户,重合度高达 70%。这意味着深度使用 AI 的企业,大多数都不是只选一种方式,而是根据场景选择不同的服务层级:有些调 API 就够了,有些需要自己训模型。
这解释了为什么阿里在 Token 份额上看似被追赶,却在营收上保持着绝对的统治力:火山赢在了 “轻”,而阿里赢在了 “重”。
近期AWS和谷歌云相继宣布涨价,也说明在需求驱动下,底层资源的价值依然稳固甚至凸显。这背后是一条清晰的“AI 通胀”传导链,从存储芯片到 CPU,通胀压力正自上而下传导至云端。持续二十年的“云服务价格只降不升”铁律,被彻底打破了。
对于云巨头而言,这同时是一场久违的“利润翻身仗”。短期靠 AI 算力涨价“回血”,长期靠公有云产品模式彻底“新生”——AI 正在将高价值工作负载不可逆地锁定在公有云上,终结了过去那种“垫资、驻场、做总包”的苦活累活。
OpenClaw 的爆火,不仅仅是因为好用,更因为它代表了一种趋势:Skill-based Agent(基于技能的智能体)正在取代单纯的 Chatbot。这种进化的本质,是 AI 从 “对话框” 走进了 “业务流”,用户迫切需要能够直接交付结果的生产力工具。
正如互联网的本质是连接,计算机的本质是效率。直接呈现结果,永远比提供工具要更有效率。OpenClaw 恰恰扮演了这样一个角色——一个能执行复杂任务的数字员工。这显然已经超越了 MaaS 的范畴,进入了 WaaS(工作流即服务)的深水区。
这种超越背后,是一场席卷全球软件行业的恐慌。就在 OpenClaw 席卷 GitHub 的同一个月,大洋彼岸的资本市场用脚投出了反对票。1 月 29 日,SaaS 巨头 SAP 与 ServiceNow 的股价分别重挫 15% 和 13%,过去一年,美国上市企业软件公司的市值整体蒸发了 10%。《经济学人》也在一篇分析中敏锐地发问:SaaS(软件即服务)是否正在衰落,而 AaaS(代理即服务)是否正在兴起?
过去,企业购买软件是为了适应既定的功能和规则;而现在,借助 Vibe 编码和智能 MCP,任何人都可以构建真正适合自己工作流程的内部工具。商业软件投资增速已从前两年的 12% 放缓至 8%,因为当业务逻辑从“购买软件”转移到“雇佣 Agent”时,旧有的 SaaS 护城河便显得岌岌可危。
高盛在一份最新的研究中断言,软件行业的利润池正在发生转移:到 2030 年,超过 60% 的软件经济价值将由 AI Agent 贡献,而非传统的 SaaS 席位。
在高盛的定义中,真正的 Agent 不是那种只会陪聊的机器人,而是具备自主性、能适应变化、拥有上下文记忆并能调用 API 完成多步工作的系统。一旦厂商能用 Agent 封装工作流,它们就掌握了新的知识工作交互界面,从而捕获生产力增益的大头。
不过眼下理想与现实之间仍有一道鸿沟。目前的部署大多仍是连接了 LLM 的聊天机器人,那些更强大的 Agent 模式仍停留在概念验证(PoC)或内部试点阶段。高盛警告称,真正的标准化至少还需要 12 个月,因为这一层技术栈极其脆弱,它需要稳定的平台层,以及针对身份、安全和数据完整性的严格围栏(Guardrails)。
而这道“脆弱的鸿沟”,正是云巨头们的机会,OpenClaw 的出现,正是这种“去 SaaS 化”浪潮中的一朵浪花。行业内的两家老大哥 AWS 和 Google,几乎在同一时间朝着两个方向用力:一个方向是向下,把芯片、网络、调度一层层打磨到极致,让推理负载像工业设备一样;另一个方向是向上,直接下场把零散的工具封装成完整的应用生产线。
这两个方向指向同一个判断,也即云已经不再把 AI 当成一种普通负载,而是把它当成正在重塑云自身形态的主业务。
因此,OpenClaw 成为了观测国内云厂商战略分歧的最佳切片。巨头们都不想错过窗口期,但切入的角度折射出了截然不同的底色。火山引擎不提供服务器,而是确保 Agent 在 “思考” 时调用性价比最高的模型;而阿里云和腾讯云,则选择极速上线轻量应用服务器的 “一键部署镜像”。
这看似是两种产品形态的选择,实则是中国 AI 云市场分裂为两条路线的缩影:一条路通向 “极致的智力供给”,另一条路通向 “全栈的应用托管”。
但如果细看阿里云的方案,会发现它又不仅是 “卖服务器” 那么简单。在 OpenClaw 的部署方案中,阿里云虽然也提供了服务器镜像,但它更进一步——在镜像中深度集成了自家的 “百炼” 平台和通义千问模型,甚至可以直接跟钉钉集成。这种“全栈式”的打法,源于阿里云对自己特殊的战略定位。
从全球范围看,阿里云是一个比较特殊的存在,它是少数同时押注云计算基础设施和开源模型生态的大型云服务商。Qwen 系列模型开源后,全球下载量已超过 8 亿次。这 8 亿次下载中,许多转化为了本地部署或私有集群推理,虽然不直接产生 Token 收入,但都在消耗底层的算力、存储和网络。
《新立场》认为,OpenClaw 的火爆也标志着 AI 云的竞争高点,正从 “资源层(IaaS)” 和 “模型层(MaaS)” 向 “工作流层”(Workflow as a Service)迁移。
谁能接管企业的 Business Workflow(业务流),谁就拥有了最高的转换成本。单纯的模型 API 改几行代码就能从 DeepSeek 换成 GPT-4,但一旦企业的业务流逻辑(Agent Chain)跑在某一方的编排引擎上,迁移难度会瞬间上涨。这就像当年的操作系统之争,工具类产品容易被替代,但平台级产品一旦形成生态,壁垒极高。
而云服务的竞争从来不是孤立的。过去云计算的竞争,IaaS、PaaS、SaaS 相对独立,客户可以分层采购。但 AI 改变了这个逻辑。模型训练需要海量算力,推理需要低延迟网络,数据需要在安全合规的前提下流动,这些环节高度耦合,很难拆开。
一个企业客户调用 API 的背后,是数据治理(PaaS)、芯片调度(IaaS)、网络延迟优化等一系列复杂的工程问题。工作流层的繁荣,又会反过来驱动对底层模型API(MaaS)和算力资源(IaaS)更大量、更稳定的需求。任何一层出了短板,整体体验就会打折扣。
这恰恰是阿里云最擅长的领域。当 AI 从 “聊天玩具” 变成 “生产工具”,企业客户会发现,他们需要的不仅仅是一个便宜的 API 接口,还包括一套算力集群管理、数据安全合规、模型微调工具以及应用编排引擎在内的 “重型 Infra”。
这正是阿里云未来三年投入3800亿砸基建的缘由,也是阿里云的战略目标:为AI时代的“工作流操作系统”铺设地基。承接那些因开源生态聚集而来、因工作流复杂而沉淀下来的长周期需求。
过去一年,火山引擎都是那个最喧闹的“流量入口”,但阿里云正在通过掌控 Infra 和工作流,悄然拿走属于“操作系统”的那份最高溢价。在云端战事的下半场,确定性,才是最昂贵的商品。
正如谭待所言:当下的市场不是存量竞争,也不是零和博弈,而是大家一起把这个市场做大。刘伟光也在一场沟通会中表达了类似的观点——AI 时代的关键是打赢增量,未来很可能每年增量市场都远大于过去一年的存量市场。
而正如谷歌云和 AWS 近期的涨价所暗示的,底层资源的价值依然稳固。在需求驱动下,那些能够提供 “确定性” 的云厂商——芯片、网络、调度系统被一层层打磨到极致,将获得最大的议价权。
云计算行业没有讨巧的事。每一个数据库产品,每一层服务能力,都是脏活累活苦活堆出来的。基础设施的稳定性、安全性,都不是靠讲故事讲出来的,而是靠无数次故障复盘、性能调优磨出来的。
当厂商已经不满足于把算力卖出去,而是越来越执着于把底层的控制权握在自己手里,让推理负载变得稳定、可控,更多企业会从 “尝鲜” 走向 “深度使用”。当 AI 从消费端走向生产端,竞争一定会回归到全栈。而谁的基础设施更扎实,谁的全栈能力更完整,谁就能走得更远。
*题图及文中配图来源于网络。
相关文章
2026-02-050阅读
2026-02-050阅读
2026-02-050阅读
2026-02-050阅读
2026-02-050阅读
2026-02-050阅读
2026-02-050阅读
2026-02-050阅读
2026-02-050阅读
2026-02-050阅读