Google 近来的企业 AI 动作,表面看是算力和平台继续往前推,真正更值得注意的变化,是企业讨论重心开始往治理侧偏了。

过去很多公司问的是:要不要把 AI 接进团队流程。现在更现实的问题变成了:默认并发开多大、agent 能不能自动改代码、trace 和回放是不是必须保留、谁来审、出了错怎么追。

这也是“Tokenmaxxing”这个说法这两天突然冒出来的原因。它不是劝企业少用 AI,而是在提醒另一件事:企业会继续重用 AI,但会更反对盲目堆 token、堆并发、堆不经审查的“氛围编程”式消耗。多用,不等于乱用。

变化发生在哪:企业 AI 的瓶颈,从接入模型转向管理使用

Google 这条线并不难看懂。一边是 Cloud 侧继续推进更强的 TPU 底座,包括训练和推理能力的扩展;另一边是 Gemini Enterprise Agent Platform 这类企业级 agent 平台,把模型从聊天窗口推向文档、代码、协作和业务系统。

算力更便宜、平台更完整,确实会让企业更容易把 agent 拉进正式流程。但它带来的不只是部署便利,也会把原来藏在试验阶段的问题一起放大:调用是不是过量,输出能不能审,权限是不是给得太早,返工成本由谁承担。

新出现的“Tokenmaxxing”讨论,补上的正是这块判断。它说明企业端的竞争点正在挪动。模型能力还重要,但已经不是唯一分水岭。谁能把 token、工具调用和审查流程管成生产系统,谁更可能拿到下一阶段的效率收益。

这比“AI 普及加速”多了一层新信息:真正开始收紧的,不是采购口号,而是使用纪律。

为什么现在升温:agent 正从个人工具,变成团队基础设施

这轮讨论升温,不是因为某个新词突然流行,而是因为 agent 的位置变了。

近期几条线索放在一起看,方向很一致:Google 在推更强的 TPU 和企业 agent 平台,OpenAI 也在把 workspace agents 往团队协作链路里塞,模型厂商则继续强化编码和 agent 能力。它们不是同一家公司的一套统一战略,但共同效果很明显——agent 不再只是个人试验品,开始进入团队生产。

一旦进入团队生产,问题就会变硬。

工程负责人关心的,不再只是模型答得好不好,而是这些更具体的事:

  • 默认要不要开高并发 agent
  • 自动改代码的权限给到哪一层
  • trace、eval、回放是不是默认开启
  • 模型和 agent harness 能不能替换
  • 审查链和责任链怎么接回现有流程

这也是为什么“Tokenmaxxing”比表面看上去更像管理词,而不是社区黑话。它谈的是组织怎么花 token,不是个人怎么省 token。

真正被纠正的,不是多用 AI,而是粗放用 AI

企业端现在收紧的,不是 AI 使用本身,而是那种“先跑起来再说”的默认姿势。

这点从近期业内表态能看出来。围绕 coding agent 的讨论,风向正在从更偏 vibe coding 的乐观姿态,转向更朴素的约束:请读代码,少做大改,多保留痕迹。还有一种更具代表性的区分是,好的 tokenmaxxing,追求的是深度,不是广度。

这句话很重要。它把两种看起来都在“多用 AI”的方式分开了:

  • 一种是高并发撒网,5 路、10 路、50 路同时跑,像批量买彩票
  • 一种是让模型做更深的串行探索、研究循环、反思和修订

前者容易制造很多看起来像产出的中间结果,后者才更可能真正推进任务。

目前还不能说 vibe coding 已经被判出局。不同场景下,边界还会变,模型能力继续上升后,很多做法也可能重新被接受。但企业环境里的风向已经很清楚:大家更怕“生成很多,收尾很烂”。

对企业来说,这不是审美变化,是成本变化。浪费掉的从来不只是 token 账单,还包括代码审查时间、返工、人力兜底、错误输出带来的注意力损耗。

受影响最大的是谁:工程负责人和平台团队要先补治理,再谈规模

这一轮变化里,最直接受影响的,不是普通用户,而是两类人:

  • 正在引入 coding agent 的工程负责人
  • 负责企业 AI 平台、权限和审计的基础设施团队

他们接下来面对的会是流程决策,不是抽象态度。

有些团队会放慢大规模部署,先把 trace、审查和回放补齐;有些团队会继续上 agent,但会先收紧默认并发、限制自动修改权限,而不是一步放开。采购节奏也会因此变化:过去先看模型能力和单价,现在要更早看治理能力是否跟得上。

这里有几项会越来越像必答题:

观察点为什么重要如果缺失会怎样
trace 可观测能看到 agent 实际做了什么出问题只能靠猜
eval 可执行能把“看起来能用”变成可检验流程决策会陷入主观争论
最小编辑约束能压住 over-editing 和过度生成审查成本会上升很快
模型与 harness 可替换能避免整套工具链被单一供应商锁住迁移成本和议价压力都会变大

这也是新线索相对原有判断真正补强的地方:企业 AI 的核心问题,不只是在权限流、算力选择和审计链上补控制,还要把 token 使用本身纳入管理对象。以前很多团队把 token 当作成本项,现在更像要把它当作流程项。

差别不小。成本项只关心花了多少钱,流程项要问的是:这些调用有没有换来更高的解决率、更低的返工率、更稳的审查成本。

接下来该看什么:谁先把“少浪费”做成默认能力

如果说过去一段时间,行业主要在补模型课,那现在开始补的是另一门课:怎么少浪费。

可以先看几类信号。

一类是 trace、eval、self-improvement 这套链路会不会成为企业 agent 的默认配置。agent 的执行痕迹正在变成核心数据资产。哪里重复试错,哪里工具调用失真,哪里判断偏了,能不能回放,都会影响它能否进入正式生产。

一类是最小编辑和 over-editing 约束会不会继续前移。代码模型最大的实际问题之一,不是不会改,而是常常改太多。修一个点,顺手重写一片,最后把审查成本转嫁给人。

还有一类是 BYO model、BYO key、harness 可替换会不会更普及。背后的现实很直接:很多模型会对自家 agent 脚手架表现更好,换个 harness 结果就可能变样。企业如果没有替换权,后面很容易被整套工具链绑住。

算力便宜当然重要,但它不会自动带来更高效率。云计算早期也经历过类似阶段:资源一便宜,组织先粗放扩容,之后才补 FinOps。AI 这轮更麻烦一些,因为浪费掉的不只是机器资源,还包括人的判断力和审查时间。

所以接下来真正值得盯的,不是哪家又把 benchmark 分数拉高,而是哪家先把下面这件事做成默认现实:让 token、工具调用、权限边界和审计流程一起被治理,而不是分别被采购。

企业 AI 到了这一步,拼的已经不是谁最会接模型,而是谁最会收拾模型带来的组织后果。