新闻

TokenHub 企业版:大模型服务平台 Token Plan 专属方案

新闻 2026-05-15 0 次浏览
Token Plan 企业版专业套餐是专为企业与团队打造的大模型 API 预付费服务,采用月度结算模式。该套餐允许用户自定义月度预算上限(通过购买积分池实现),在调用不同模型时,系统会根据各模型设定的 Token 单价从积分池中实时划扣费用。由于不同模型的计价标准各异,此方案非常适合需要利用积分制对多模型调用额度进行统一管理的团队及企业级应用场景。

快速入门

如果您已经对 Token Plan 企业版专业套餐有所了解,可以直接查阅 快速入门指南 开始配置。

套餐详情

核心概念

套餐 → 积分池 → API Key ,三者之间的关联关系如下:
层级
描述
账号
单个腾讯云账号支持购买多个独立的套餐,每个套餐均配备独立的积分池、API Key 配额以及有效期,各套餐之间互不干扰。此设计非常适合依据部门、具体项目或业务线进行分别采购和管理。
套餐(积分池)
每个套餐对应一个专属的积分池,池子的大小取决于购买时设定的月度预算(换算比例为 100 积分售价 1 元)。该积分池作为套餐下所有 API Key 的总额度,无论调用哪个模型,都会从该池中进行实时划扣。
注:
积分不属于货币范畴,不具备法定货币的流通功能,严禁在账号之间进行交易,也不得用于支付、购买实物商品或兑换腾讯的其他产品及服务。积分一旦购买或发放,概不支持提现或退款。
API Key
每个套餐下支持创建多个 API Key,其数量上限与套餐积分配比(每 1 万积分可兑换 1 个 Key 创建额度)。用户可以为每个 Key 单独配置可用模型、独享配额、额度上限以及调用速率(TPM),从而实现对团队资源进行精细化的分发与管控。

积分机制

换算比例:100 积分对应 1 元人民币。
额度共享:同一套餐内的所有 API Key 共用该套餐的积分池,系统会根据实际调用量进行实时划扣。
配额管控:支持为每个 Key 设置独享配额(即仅限该 Key 使用的专属积分)和配额上限(该 Key 可使用的积分总量,涵盖独享与共享部分)。若未设置独享配额,则该部分归入共享池,各 Key 按调用顺序先到先得。
计费扣减:模型调用时,会依据各模型的 Token 单价从积分池中实时扣除积分,不同模型单价各异,具体详情请参阅 模型与积分换算说明

套餐规格

配置项
说明
月预算
1,000 元/月起,最高至 20,000 元/月,递增步长为 1,000元(具体数值以控制台展示为准)。如需更高配额,请联络销售或 提交工单 进行申请。
购买时长
支持 1 至 12 个月
可用模型
Auto 智能路由、GLM-5GLM-5.1GLM-5-TurboKimi-K2.5、Kimi-K2.6MiniMax-M2.5、MiniMax-M2.7、DeepSeek-V4-Flash、DeepSeek-V4-Pro(持续更新中)
注:
目前所支持的模型暂不包括图片、视频等多模态功能。

积分抵扣规则

模型与积分换算说明

说明:
输入价(命中缓存):指命中上下文缓存时的输入 Token 价格。
输入价(未命中缓存):指未命中缓存时的输入 Token 价格。
Auto 智能路由:系统自动依据请求内容挑选合适的模型进行响应,并按固定价格计费。
实际扣除积分 = Token 消耗量 × 对应单价 。
模型
阶梯条件
命中缓存输入价
(积分/百万 tokens)
未命中缓存输入价
(积分/百万 tokens)
输出价
(积分/百万 tokens)
GLM-5
输入 [0, 32k)
100
400
1800

输入 32k+
150
600
2200
GLM-5.1
输入 [0, 32k)
130
600
2400

输入 [32k+)
200
800
2800
GLM-5-Turbo
输入 [0, 32k)
120
500
2200

输入 [32k+)
180
700
2600
Kimi-K2.5
-
70
400
2100
Kimi-K2.6
-
110
650
2700
MiniMax-M2.5
-
21
210
840
MiniMax-M2.7
-
42
210
840
DeepSeek-V4-Flash
-
20
100
200
DeepSeek-V4-Pro
-
100
1200
2400
Auto 智能路由
-
50
324
1596

Token 数测算说明

鉴于各模型的 Token 单价存在差异(区分缓存命中输入、未命中缓存输入、输出三种计价方式),为了帮助用户直观评估“特定预算能换取多少 Token”,平台基于 2026 年运营数据经验值 提供了综合单价测算功能。
注意:
本测算结果仅供企业进行预算规划时参考,并不代表实际可使用的 Token 数量。
综合单价的计算已包含各模型的历史缓存命中率,页面显示价格若经四舍五入处理,可能会导致测算产生细微差异。
实际可用 Token 数量受用户真实业务场景的调用复杂度直接影响,最终结果将以真实调用时的实际缓存命中率、输入输出 Token 比例、模型混合使用状况及实时定价规则为准,请密切关注积分消耗情况。
模型
综合单价预估
(积分/百万 tokens)
50 万积分可抵扣
Token 数预估(亿 tokens)
100 万积分可抵扣
Token 数预估(亿 tokens)
GLM-5
约 440
约 11.36
约 22.73
GLM-5.1
约 380
约 13.16
约 26.32
GLM-5-Turbo
约 340
约 14.71
约 29.41
Kimi-K2.5
约 230
约 21.74
约 43.48
Kimi-K2.6
约 280
约 17.86
约 35.71
MiniMax-M2.5
约 110
约 45.45
约 90.91
MiniMax-M2.7
约 100
约 50.00
约 100.00
DeepSeek-V4-Flash
约 70
约 71.43
约 142.86
DeepSeek-V4-Pro
约 930
约 5.38
约 10.75
Auto 智能路由
约 190
约 26.32
约 52.63
综合单价公式:
综合单价 = (缓存命中率 × 命中缓存输入价 + (1 - 缓存命中率)× 未命中缓存输入价)× 输入占比 + 输出价 × 输出占比 ,若模型存在阶梯定价(例如 GLM-5 按上下文长度分档),建议优先按最长上下文档位进行预算评估,以获取更为保守的预估值。
可购买 Token 数 = 预算金额 ÷ 综合单价
测算参数来源:
以下参数取自平台 2026 年运营数据经验值,反映了实际业务场景下的典型调用特征,并非用户自定义:
点击查看文章原文
上一篇
Token Plan (Team Edition) - LLM Platform Bai Lian (Model Studio) - Alibaba Cloud Help Center
下一篇
Token套餐密集上线 推动AI算力商业化落地
返回列表