执行摘要
2025年上半年,企业级 LLM 的投入总额已达84亿美元,其中近四成企业的年度语言模型支出超过了25万美元——更有高达96%的公司反馈,实际成本远超最初的预期。具体到 AI Agent 领域,经济账更是难算:Agent 的 LLM 调用频次是普通聊天机器人的3到10倍,若缺乏约束,一个解决软件工程任务的 Agent 仅 API 费用一项就可能高达5至8美元。
值得欣慰的是,针对 AI Agent 的成本优化策略已日趋成熟。那些能够全面应用“智能模型路由”、“多级缓存”、“提示词压缩”、“批量推理调度”以及“预算治理”这一整套技术栈的团队,在不牺牲输出质量的前提下,成功将 Token 消耗降低了60%至80%。本文将深入剖析这一技术栈的各个层级,探讨其中涉及的工程权衡,以及在大规模场景下维持成本纪律所需的组织实践。
生产级 Agent 的隐形成本账
为何 Agent 成本会指数级激增
单次 Agent 对话的平均 Token 成本约为0.14美元,看似微不足道。但若将其放大到3000名员工,每人每天触发10次,日成本即达4200美元,年成本更是高达150万美元——这正是源于一个看似微不足道的交互模式。这就是所谓的“Token 成本陷阱”:在演示阶段看似合理的单体经济模型,一旦进入生产环境就会变得难以为继。
以下几个结构性因素加剧了这一问题:
递归式工具调用的开销。 Agent 不会在每个任务中仅调用一次 LLM——它们会迭代。每次工具调用的结果都会被附加到上下文中,并在下一轮完整地重新发送。一个10步的 Agent 任务可能会将完整累积的上下文传输9次,这意味着最初2000个 Token 的提示词,在任务完成时会膨胀成数万个输出 Token。
系统提示词的重复计费。 大多数生产级 Agent 在每次调用时都会携带2000至8000个 Token 的系统提示词。若无前缀缓存技术,这将构成一笔巨大的固定开销,且每一次 API 调用都会被计费。
多 Agent 间的 Token 洪流。 当 Agent 之间相互通信时,一种常见的反模式是传递完整的对话历史而非摘要。流水线中的推理 Agent 并不需要检索 Agent 的完整逐字记录——它只需要结构化的输出。缺乏显式的上下文控制,多 Agent 系统的冗余开销会随着 Agent 数量的增加呈指数级上升。
失控的循环。 2025年11月,两个基于 LangChain 的 Agent 陷入了无限对话循环,在问题被发现前持续运行了11天,产生了4.7万美元的账单。这个极端案例生动地说明了:如果将 Token 预算视为事后考虑而非设计约束,会发生什么后果。
价格版图
理解不同模型层级之间的成本差异,是制定任何优化策略的基石。截至2026年初:
| 层级 | 代表模型 | 价格区间 |
|---|---|---|
| 高级推理型 | GPT-4, Claude Opus | 每百万 Token 30–60 美元 |
| 中端实用型 | GPT-4 Turbo, Claude Sonnet | 每百万 Token 10–15 美元 |
| 轻量高速型 | GPT-3.5, Claude Haiku | 每百万 Token 0.50–2 美元 |
| 小型专用型 | Mistral 7B, Phi-3 | 每百万 Token 0.10–0.50 美元 |
高级模型与小型模型之间100到300倍的成本差距,是任何优化策略的主要切入点。工程挑战在于,如何精准识别出究竟有多少比例的查询真正需要昂贵的顶级模型。
模型路由:将复杂度匹配至能力
核心原则
模型路由——即根据复杂度信号为每个请求动态选择 LLM 的实践——在2025至2026年已成为标准操作。OpenAI 的 GPT-4o 架构会根据查询复杂度,明确地在“快速高效模型”与“深度推理模型”之间进行路由。更广泛的市场也紧随其后。
采用系统性路由的组织报告称,成本降低了30%至70%。一个实施良好的级联系统,若能将90%的查询引导至廉价模型,而将昂贵层级留给真正复杂的任务,便能在基础设施支出上实现87%的降幅。
路由信号
高效的路由器利用多种信号来对请求复杂度进行分类:
输入特征。 查询长度、是否存在多跳推理需求、结构化与非结构化输出的预期、代码生成与自然语言的区别,以及是否包含特定领域术语,这些都与所需的模型能力相关。
任务类型分类。 简单的事实查找、文档摘要和意图分类通常不需要前沿模型。而数学推理、复杂代码生成和细微差别的判断往往需要。
历史性能数据。 对于生产系统中的反复出现的任务类型,各模型层级的成功率实证数据为路由决策提供了指导。如果一个任务在 A/B 测试中由 Claude Haiku 正确处理了94%的时间,那么就无需动用 Claude Opus。
延迟要求。 交互式场景(用户等待响应)和后台处理流水线对模型延迟的容忍度不同。批量流水线可以在非高峰时段路由到更高质量的模型,从而以更低成本获得优质结果。
实施方案
模型路由的生态系统已显著成熟。LiteLLM、Portkey 和 OpenRouter 等工具均提供现成的多模型路由和故障转移配置。这些网关还带来了一个附加好处:提供商冗余。当 OpenAI 在2025年发生服务中断时,使用路由器的应用程序通过自动切换至 Anthropic 或 Google 保持了在线。
一个实用的级联架构通过三个决策点来处理请求:
- 语义缓存检查 —— 如果存在语义相似的先前请求,则直接返回缓存响应(节省100%成本)
- 复杂度分类 —— 将简单任务路由至轻量级模型,复杂任务路由至中端模型
- 失败时的升级 —— 如果廉价模型的输出未通过质量检查,则使用下一级模型重试
这种级联模式将昂贵的推理视为最后的手段,而非默认选项。
多级缓存:在推理运行前拦截成本
为何缓存未被充分利用
研究表明,31%的 LLM 查询与先前的请求存在语义相似性。若缺乏缓存基础设施,这代表了三分之一的推理支出在结构上被浪费了——即针对本质上相同的问题重复进行计算。然而,许多生产系统即使实施了缓存,也往往只是事后补救。
第一层:精确响应缓存
最简单的形式是根据确切的提示词文本缓存完整的 LLM 响应。缓存命中可带来100%的成本节省和近乎零的延迟。这适用于确定性工作流——批量摘要、文档分类和模板化生成任务,在这些场景下相同的输入会真实地重复出现。
实施很简单:Redis 或类似的键值存储持有具有可配置 TTL 的响应。挑战在于动态上下文中的缓存失效,因为底层数据可能会发生变化。
第二层:语义缓存
语义缓存将精确匹配扩展到了利用嵌入相似度的近似匹配。当新查询的嵌入与缓存查询的嵌入在阈值范围内时,返回缓存的响应或将其用作起点。
工程上的权衡在于嵌入计算(廉价但非零)与推理成本(昂贵)之间。对于高吞吐量的生产系统,这种权衡强烈倾向于语义缓存。GPTCache 及类似的库将其作为 LLM API 调用前的插入层来实现。
第三层:前缀 / KV 缓存
前缀缓存运行于基础设施层。当连续的 API 调用共享一个共同的提示词前缀(例如系统提示词)时,现代服务基础设施可以重用先前请求中的键值(KV)计算,而无需重新计算。
Anthropic 的前缀缓存在长提示词上实现了90%的成本降低和85%的延迟减少。OpenAI 的自动缓存实现了50%的成本节省。当提示词被构建为将稳定内容(系统提示词、工具定义、文档上下文)放在可变内容(用户轮次、查询)之前时,该机制对应用代码是透明的。
一个关键的工程见解:在 Agent 系统中,前缀缓存的高价值用途在于缓存工具架构定义。拥有30多个工具定义的生产 Agent 可能在每次调用时携带8000至15000个 Token 的完全相同的工具架构。如果没有前缀缓存,每一轮都会为此重新计费。
第四层:KV 缓存 disaggregation(分离)
先进的生产部署使用 LMCache 和 Mooncake 等系统,在 GPU、CPU 和 SSD 存储之间实现多级 KV 缓存复用。这些系统允许为某个请求计算的 KV 张量被后续请求检索和复用,只要它们具有匹配的前缀,甚至可以跨越不同的服务实例。
SpeCache(2025)进一步扩展了这一概念,采用推测性 KV 缓存预取:系统预测下一个 Token 可能关注哪些 KV 对,并主动将它们从 CPU 内存加载到 GPU,从而消除内存带宽瓶颈。
对于成本敏感型部署的实际影响:组织可以在相同的 GPU 容量上运行更大的批次,将每个 Token 的成本降低40%至70%。
提示词压缩:发送前精简 Token
LLMLingua 与压缩流水线
并非所有的 Token 都承载着同等的语义权重。针对自然语言的研究表明,人类撰写的文本包含显著的冗余——填充词、冗长的措辞和重复的上下文,而语言模型可以从周围文本中推断出这些内容。
LLMLingua 及类似技术利用一个小型、快速的 LLM 来评估每个 Token 的重要性,并在将提示词发送给主模型之前移除低信息量的 Token。在保留任务性能的同时,在冗长的文档输入上已展示了高达20倍的压缩比。
成本计算很简单:压缩器模型成本(极低)+ 压缩后的推理成本 << 未压缩的推理成本。
上下文窗口作为成本驱动因素
一种不太明显的提示词压缩形式是对长时间运行的 Agent 进行严格的上下文管理。随着 Agent 在多轮对话中累积工具调用结果,如果每一轮都重新发送完整历史记录,上下文带来的 Token 成本将呈二次方增长。
有效的策略包括:
迭代式摘要。 当上下文接近阈值时,较早的轮次会被总结为紧凑的表示形式。完整的记录被归档在内存中,但不会在每次调用时重新发送给 LLM。
工具结果压缩。 Agent 工具的输出往往很冗长。一个返回500行的数据库查询不需要将全部500行都发送给 LLM——Agent 应仅提取并转发相关的子集。
结构化内存交接。 在多 Agent 流水线中,Agent 应传递结构化摘要,而非完整的对话历史。下游 Agent 需要的是结论和关键数据点,而不是得出这些结论的推理轨迹。
Cloudflare 的 Code Mode 架构(2026年2月)展示了这一原则的极致表现:将2500多个 API 端点折叠为两个工具,仅消耗约1000个 Token——而传统的 MCP 服务器则需要117万个 Token。
批量推理:将成本与延迟解耦
批量规模经济学
实时推理以牺牲吞吐量效率为代价来优化延迟。批量推理则反其道而行之:通过一起处理多个请求,GPU 计算和内存带宽得到了更高效的利用。在受控基准测试中,将32个请求批量处理可将每个 Token 的成本降低85%,而延迟仅增加20%。
许多 API 提供商现在提供双层定价模型:
- 实时层:低延迟(毫秒到秒),溢价定价
- 批量层:较高延迟(分钟到小时),50%或更大的折扣
对于生产级 Agent 工负载,很大一部分任务实际上是异步的,可以容忍批量延迟。文档处理、内容生成、数据丰富、定时分析——这些都不需要亚秒级的响应。
自托管部署中的连续批处理
运营自有推理基础设施(vLLM, TensorRT-LLM)的组织受益于连续批处理:当当前批次中的序列完成后,新请求会立即插入,无需等待整个批次完成。结合 PagedAttention 的高效内存分配,连续批处理比静态批处理实现了高达23倍的提升,极大地提高了 GPU 利用率并降低了每个 Token 的成本。
预算治理:FinOps 层面
从成本感知到成本控制
技术优化降低了推理的单体成本。而预算治理则防止了无论单体效率如何,总成本都无限增长。
组织的现实情况是:96%的企业报告 AI 成本超出初始预期,而只有44%建立了财务护栏。实施预算治理既需要工具也需要组织的承诺。
硬限制与熔断机制
生产级 Agent 应在框架或网关层面强制执行严格的 Token 预算限制。实际的控制措施包括:
- 每个任务的最大迭代次数。 一个执行了50次工具调用仍未完成任务的 Agent,几乎肯定陷入了循环,而非在进行深入工作。
- 每个追踪过程的 Token 预算。 每个任务执行都有一个既定的 Token 预算。如果预算耗尽,Agent 应返回部分结果,而不是继续计费。
- 多重阈值的成本警报。 在预计月度支出的50%、80%和100%发出警报,并采取升级响应:监控、审查、停止。
- 按用户和按功能的配额。 按用户群组和功能领域细分支出,使成本异常在恶化之前就可见。