核心摘要
2025年上半年,企业级 LLM 支出已高达 84 亿美元,近四成企业每年在语言模型上的投入超过 25 万美元,且有 96% 的公司反馈成本超出原有预期。具体到 AI Agent,其经济压力尤为严峻:Agent 的 LLM 调用量是普通聊天机器人的 3 到 10 倍,若缺乏约束,一个解决软件工程任务的 Agent 光 API 费用就可能达到每单 5 至 8 美元。
值得庆幸的是,AI Agent 成本优化的技术栈已趋于成熟。那些能全面运用策略——包括智能路由、多级缓存、提示词压缩、批量推理调度及预算治理——的团队,在未牺牲产出质量的前提下,成功将 Token 开销削减了 60% 至 80%。本文将深入剖析这一技术栈的每一层,探讨其中涉及的各种工程权衡,以及在规模化落地时维持成本纪律所需的组织实践。
生产环境 Agent 的隐形成本
成本为何会急剧膨胀
单次 Agent 对话平均只需 0.14 美元的 Token 费用,看似微不足道。但如果规模扩大到 3000 名员工,每人每天触发 10 次,日均成本就达到 4200 美元,年耗则高达 150 万美元。这就是所谓的“Token 成本陷阱”:在演示阶段看似划算的单体经济模型,一旦进入生产环境便会变得难以为继。
以下几个结构性因素加剧了这一问题:
递归工具调用开销。 Agent 并非每任务仅调用一次 LLM,而是反复迭代。每次工具调用的结果都会被追加至上下文,并在下一轮完整重发。一个包含 10 个步骤的任务可能会将完整累积上下文传输 9 次,这意味着原本 2000 Token 的初始提示词,在任务结束时可能膨胀为数万个输出 Token。
系统提示词重复。 大多数生产级 Agent 在每次调用时都会携带 2000 至 8000 Token 的系统提示词。若无前缀缓存,这将构成一笔巨大的固定开销,且每一次 API 调用都会为此买单。
多 Agent Token 洪流。 当 Agent 之间相互通信时,一种常见的反模式是传递完整的对话历史而非摘要。流水线中的推理 Agent 并不需要检索 Agent 的完整对话记录,它只需要结构化的输出。若缺乏明确的上下文约束,随着 Agent 数量的增加,多 Agent 系统的成本会呈指数级上升。
失控循环。 2025 年 11 月,两个基于 LangChain 的 Agent 陷入无限对话循环,持续运行了 11 天,直到问题被发现时已产生了 47,000 美元的账单。这个极端案例生动地说明了,若将 Token 预算视为事后补救而非设计约束,后果会有多么严重。
定价格局
厘清不同模型层级之间的成本差异,是制定任何优化策略的基石。截至 2026 年初:
| 层级 | 示例 | 价格区间 |
|---|---|---|
| 顶级推理型 | GPT-4, Claude Opus | 每百万 Token $30–60 |
| 中端能力型 | GPT-4 Turbo, Claude Sonnet | 每百万 Token $10–15 |
| 轻量极速型 | GPT-3.5, Claude Haiku | 每百万 Token $0.50–2 |
| 小型专用型 | Mistral 7B, Phi-3 | 每百万 Token $0.10–0.50 |
顶级模型与小型模型之间 100 到 300 倍的成本差价,正是优化策略的主要杠杆点。工程上的挑战在于,如何精准识别出究竟有多少比例的查询真正需要昂贵的高阶模型。
模型路由:将复杂度与能力匹配
核心原则
模型路由——即基于复杂度信号为每个请求动态选择 LLM 的做法——在 2025 至 2026 年间已成为行业标准。OpenAI 的 GPT-4o 架构会根据查询复杂度,显式地在快速高效模型与深度推理模型之间进行路由。更广泛的市场也紧随其后。
采用系统化路由的组织反馈称,成本降低了 30% 至 70%。一个实施得当的级联系统,若能将 90% 的查询导向廉价模型,仅将高阶模型留给真正复杂的任务,便能使基础设施支出减少 87%。
路由信号
高效的路由器利用多种信号来对请求复杂度进行分类:
输入特征。 查询长度、是否包含多跳推理需求、结构化与非结构化输出的预期、代码生成与自然语言的区分,以及是否包含特定领域术语,这些都与所需模型能力相关。
任务类型分类。 简单的事实查询、文档摘要和意图分类通常不需要前沿模型。而数学推理、复杂代码生成以及微妙的判断性任务则往往需要。
历史表现。 对于生产系统中的反复出现的任务类型,各模型层级的成功率实证数据能指引路由决策。如果 Claude Haiku 在 A/B 测试中能正确处理某项任务 94% 的时间,那么就无需动用 Claude Opus。
延迟要求。 交互式用例(用户等待响应)与后台处理流水线对模型延迟的容忍度不同。批量流水线可以在非高峰时段路由到高质量模型,从而降低成本。
实现选项
模型路由的生态系统已显著成熟。LiteLLM、Portkey 和 OpenRouter 等工具均提供开箱即用的多模型路由和故障转移配置。这些网关还带来一个次要好处:提供商冗余。当 OpenAI 在 2025 年发生宕机时,使用路由器的应用通过自动切换至 Anthropic 或 Google 保持了在线。
一个实用的级联架构会通过三个决策点来处理请求:
- 语义缓存检查——针对先前的语义相似请求返回缓存响应(100% 节省成本)
- 复杂度分类——将简单任务路由至轻量模型,复杂任务路由至中端模型
- 失败时升级——若廉价模型的输出未通过质量检查,则用上一级模型重试
这种级联模式将昂贵推理视为最后手段,而非默认选项。
多级缓存:在推理运行前规避成本
为何缓存未被充分利用
研究表明,31% 的 LLM 查询与先前的请求存在语义相似性。若无缓存设施,这意味着三分之一的推理支出属于结构性浪费——即对本质上相同的问题进行了重复计算。然而,许多生产系统即便实现了缓存,也往往只是将其作为事后补充。
第一层:精确响应缓存
最简单的形式是依据精确提示词文本缓存完整的 LLM 响应。缓存命中可带来 100% 的成本节约和接近零的延迟。这适用于确定性工作流——批量摘要、文档分类以及模板化生成任务,在这些场景下相同的输入确实会反复出现。
实施起来很简单:使用 Redis 或类似键值存储保存响应,并配置可调整的 TTL。挑战在于动态上下文中的缓存失效,因为底层数据可能会发生变化。
第二层:语义缓存
语义缓存利用嵌入相似度将精确匹配扩展为近似匹配。当新查询的嵌入向量与已缓存查询的嵌入向量在阈值范围内时,便返回缓存响应或将其作为起点。
其中的工程权衡在于嵌入计算(廉价但非零)与推理成本(高昂)之间。对于高吞吐量的生产系统,这种权衡强烈倾向于语义缓存。GPTCache 等类似库将其作为 LLM API 调用前的插入层来实现。
第三层:前缀 / KV 缓存
前缀缓存运行于基础设施层。当连续的 API 调用共享一个公共提示词前缀(如系统提示词)时,现代服务基础设施可以复用先前请求中的键值计算结果,而无需重新计算。
Anthropic 的前缀缓存在长提示词上实现了 90% 的成本削减和 85% 的延迟降低。OpenAI 的自动缓存可实现 50% 的成本节省。只要提示词结构得当,将稳定内容(系统提示词、工具定义、文档上下文)置于可变内容(用户轮次、查询)之前,该机制对应用代码是透明的。
一个关键的工程洞察:在 Agent 系统中,前缀缓存最高价值的用途在于缓存工具模式定义。一个拥有 30 多个工具定义的生产 Agent 可能在每次调用时携带 8000 至 15000 Token 完全相同的工具模式。若没有前缀缓存,这部分费用在每一轮都会被重新计费。
第四层:KV 缓存解耦
先进的生产部署使用 LMCache 和 Mooncake 等系统,在 GPU、CPU 和 SSD 存储之间实现多级 KV 缓存复用。这些系统允许为某个请求计算出的 KV 张量被后续具有匹配前缀的请求检索和复用,甚至跨不同的服务实例。
SpeCache (2025) 进一步扩展了这一概念,引入推测性 KV 缓存预取:系统预测下一个 Token 可能关注的 KV 对,并主动将其从 CPU 内存加载到 GPU,从而消除内存带宽瓶颈。
对于成本敏感型部署的实际影响:组织可以在相同的 GPU 容量上运行更大的批次,从而将每 Token 成本降低 40% 至 70%。
提示词压缩:发送前精简 Token
LLMLingua 与压缩流水线
并非所有 Token 都承载同等的语义权重。针对自然语言的研究表明,人类编写的文本包含大量冗余——填充词、冗长表述以及重复的上下文,语言模型其实可以从周围文本推断出这些内容。
LLMLingua 及类似技术利用一个小型、快速的 LLM 来评估每个 Token 的重要性,并在将提示词发送给主模型之前移除低信息量的 Token。在冗长的文档输入上,已证明了高达 20 倍的压缩比,同时保持了任务性能。
成本计算非常直接:压缩器模型成本(微乎其微)+ 压缩后的推理成本 << 未压缩推理成本。
视上下文窗口为成本驱动因素
一种不那么显而易见的提示词压缩形式,是对长期运行的 Agent 进行严格的上下文管理。随着 Agent 在多轮对话中积累工具调用结果,若每一轮都重发完整历史记录,上下文成本会呈平方级增长。
有效的策略包括:
迭代摘要。 当上下文接近阈值时,将较早的轮次摘要为紧凑的表示形式。完整记录归档于内存中,但不会在每次调用时重发给 LLM。
工具结果压缩。 Agent 工具输出往往冗长乏味。一个返回 500 行的数据库查询无需将所有 500 行都发给 LLM——Agent 应仅提取并转发相关子集。
结构化内存交接。 在多 Agent 流水线中,Agent 应传递结构化摘要,而非完整的对话历史。下游 Agent 需要的是结论和关键数据点,而非得出这些结论的推理轨迹。
Cloudflare 的 Code Mode 架构(2026 年 2 月)展示了这一原则的极致应用:将 2500 多个 API 端点折叠为两个工具,仅消耗约 1000 个 Token——相比传统 MCP 服务器的 117 万 Token 大幅降低。
批量推理:将成本与延迟解耦
批量规模经济学
实时推理以牺牲吞吐效率为代价来优化延迟。批量推理则恰恰相反:通过集中处理多个请求,GPU 算力和内存带宽得到更高效的利用。在对照测试中,将 32 个请求批量处理可降低 85% 的单 Token 成本,而延迟仅增加 20%。
许多 API 提供商现在提供双层定价模式:
- 实时层:低延迟(毫秒到秒),溢价定价
- 批量层:较高延迟(分钟到小时), 50% 或更大折扣
对于生产级 Agent 工负载,很大一部分任务本质上是异步的,可以容忍批量延迟。文档处理、内容生成、数据丰富、定时分析——这些都不需要亚秒级的响应。
自托管部署中的连续批处理
运营自有推理基础设施(vLLM, TensorRT-LLM)的组织受益于连续批处理:当前批次中的序列一旦完成,新请求会立即插入,无需等待整批结束。结合 PagedAttention 的高效内存分配,连续批处理相比静态批处理实现了高达 23 倍的性能提升,极大地提高了 GPU 利用率并降低了单 Token 成本。
预算治理:FinOps 层面
从成本意识到成本控制
技术优化能降低推理的单价成本。而预算治理则能防止无论单价效率如何,总成本都无限增长。
组织现状显示:96% 的企业反馈 AI 成本超出预期,仅 44% 建立了财务护栏。实施预算治理不仅需要工具,更需要组织的承诺。
硬性限制与熔断机制
生产环境的 Agent 应在框架或网关层面强制执行严格的 Token 预算限制。实用的控制手段包括:
- 单任务最大迭代次数。 若一个 Agent 进行了 50 次工具调用仍未完成任务,它几乎肯定是陷入了死循环,而非在进行深度工作。
- 单次追踪 Token 预算。 每个任务执行都有既定的 Token 预算。一旦预算耗尽,Agent 应返回部分结果,而不是继续计费。
- 多阈值成本警报。 在月度预估支出的 50%、80% 和 100% 设置警报,并伴随分级响应:监控、审查、停止。
- 按用户和按功能的配额。 按用户群组和功能区域细分支出,以便在成本异常恶化前将其可视化。