
GPT-5-nano 定价详解 — 适用于高吞吐量工作负载的最便宜 GPT 模型
title: GPT-5-nano 定价详解 — 适用于高吞吐量工作负载的最便宜 GPT 模型 slug: gpt-5-nano-pricing-zh summary: GPT-5-nano API 定价全面解析 — 仅需 1.25 每百万 Token,自动缓存,Batch API 半价优惠,以及 Crazyrouter 折扣。 tag: Pricing language: zh cover_image_url: https://raw.githubusercontent.com/xujfcn/images/main/blog/covers/claude-sonnet-4-6-pricing.jpg meta_title: GPT-5-nano 2026 定价 — 最便宜的 GPT 模型 & Crazyrouter meta_description: GPT-5-nano 完整定价指南。输入仅需 $0.20/MTok — 最便宜的 GPT 模型。缓存、Batch API,以及 Crazyrouter 折扣。 meta_keywords: GPT-5-nano pricing, cheapest AI API, OpenAI nano model, high throughput AI, Crazyrouter discount#
GPT-5-nano 定价详解 — 适用于高吞吐量工作负载的最便宜 GPT 模型#
OpenAI 的 GPT-5-nano 是 GPT-5 系列中最小、最便宜的模型,专为速度和成本优先于深度推理的高吞吐量工作负载而设计。输入仅需 1.25 每百万 Token,它是 OpenAI 有史以来发布的最实惠的 GPT 模型 — 而通过 Crazyrouter,你还能以更低的价格使用它。
无论你是在运行分类流水线、大规模内容过滤,还是每天处理数百万请求的意图路由,GPT-5-nano 都能以极低的成本提供 GPT 级别的智能。本指南将详细拆解每个定价层级、折扣机制和真实场景下的成本计算,帮助你精准规划预算。
基础定价#
GPT-5-nano 采用 OpenAI 标准的按 Token 计费模型。以下是官方价格表:
| 层级 | 输入 | 输出 |
|---|---|---|
| 标准 | $0.20 / MTok | $1.25 / MTok |
| 缓存输入 | $0.02 / MTok | — |
| Batch API | $0.10 / MTok | $0.625 / MTok |
关键细节:
- 无长上下文定价层级 — GPT-5-nano 拥有固定的上下文窗口,不像大型模型那样对扩展上下文收取额外费用。
- 按 Token 付费 — 你只需为实际使用的 Token 付费。没有最低消费承诺,没有预留容量费用。
- 相同的计费基础设施 — 与你现有的 OpenAI 计费设置、使用层级和速率限制完全兼容。
换个角度来看:处理 100 万个输入 Token 仅需 $0.20 — 大约 75 万个英文单词只要两毛钱。对于输出很短(单个标签或分数)的分类和路由任务,每次请求的实际成本可以降到几分之一美分。
自动缓存#
GPT-5-nano 最强大的省钱功能之一是自动提示缓存。OpenAI 会自动缓存频繁使用的提示前缀,缓存命中的 Token 仅收取标准输入价格的 10%。
工作原理#
- 缓存输入 Token:$0.02 / MTok(相比标准输入价格打一折)
- 全自动 — 无需任何配置。OpenAI 会自动检测重复的提示前缀并透明地进行缓存。
- 缓存命中发生在你的请求共享至少 1,024 个 Token 的相同系统提示或前缀时。
缓存最能省钱的场景#
缓存对以下工作负载最为有效:
- 长系统提示 — 如果你使用了详细的系统提示(分类规则、输出格式、少样本示例),该前缀在第一次请求后就会被缓存。
- 批量分类 — 通过同一分类流水线发送数千个项目,意味着只有第一次请求需要为系统提示支付全价。
- 一致的前缀 — 任何请求中前 N 个 Token 保持相同的工作流。
成本影响示例#
假设一个分类流水线使用 2,000 Token 的系统提示,每天处理 100,000 个项目,每个项目有 200 Token 的用户输入:
- 无缓存:(2,000 + 200) × 100,000 = 2.2 亿输入 Token → $44.00/天
- 有缓存:(2,000 × 0.20/MTok) × 100,000 = 4.00 = $8.00/天
仅凭自动缓存就实现了输入成本降低 82% — 无需任何代码改动。
Batch API#
对于不需要实时响应的工作负载,OpenAI 的 Batch API 对输入和输出 Token 均提供50% 的固定折扣。
Batch API 定价#
| Token 类型 | 标准价格 | Batch API | 节省 |
|---|---|---|---|
| 输入 | $0.20 / MTok | $0.10 / MTok | 50% |
| 输出 | $1.25 / MTok | $0.625 / MTok | 50% |
Batch API 工作方式#
- 提交批次 — 上传一个包含最多 50,000 个请求的 JSONL 文件。
- 等待处理 — 批次在 24 小时内完成(通常快得多)。
- 获取结果 — 下载包含所有响应的已完成批次。
Batch + GPT-5-nano 的理想使用场景#
- 每晚内容审核 — 将当天的用户生成内容在夜间一次性批量处理。
- 批量分类 — 对数百万产品、工单或文档进行分类。
- 数据增强 — 为大型数据集添加标签、摘要或元数据。
- 评估流水线 — 对模型输出进行评分或对训练数据进行质量检查。
Batch API + 缓存叠加#
没错,缓存与 Batch API 可以同时生效。如果你的批量请求共享相同的前缀,两种折扣可以叠加:
- Batch 模式下的缓存输入:实际仅需 **0.02 缓存价格再享 50% 批量折扣)
- 这比标准输入价格便宜 95%。
Crazyrouter 定价#
通过 Crazyrouter,你可以以 OpenAI 官方定价的 55% 使用 GPT-5-nano — 即 45% 的折扣,且不会降低速率限制或功能。
Crazyrouter 价格#
| Token 类型 | OpenAI 官方 | Crazyrouter | 节省 |
|---|---|---|---|
| 输入 | $0.20 / MTok | $0.11 / MTok | 45% |
| 输出 | $1.25 / MTok | $0.6875 / MTok | 45% |
为什么 Crazyrouter 更便宜#
Crazyrouter 汇聚了数千名开发者的需求,与 OpenAI 协商批量定价,并将节省的费用直接传递给你。你将获得:
- 相同的模型,相同的质量 — 与直接调用 OpenAI 完全一致的输出
- OpenAI 兼容 API — 即插即用,无需修改代码
- 无速率限制惩罚 — 与直接访问相同的吞吐量
- 按量付费 — 无最低消费,无合约承诺
代码示例:OpenAI Python SDK#
from openai import OpenAI
client = OpenAI(
api_key="your-crazyrouter-api-key",
base_url="https://crazyrouter.com/v1"
)
response = client.chat.completions.create(
model="gpt-5-nano",
messages=[
{"role": "system", "content": "Classify the following text into one of: positive, negative, neutral."},
{"role": "user", "content": "This product exceeded my expectations in every way!"}
],
max_tokens=10
)
print(response.choices[0].message.content)
# Output: positive
代码示例:cURL#
curl https://crazyrouter.com/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer your-crazyrouter-api-key" \
-d '{
"model": "gpt-5-nano",
"messages": [
{"role": "system", "content": "Classify sentiment: positive, negative, or neutral."},
{"role": "user", "content": "Terrible experience, would not recommend."}
],
"max_tokens": 10
}'
代码示例:Node.js#
import OpenAI from 'openai';
const client = new OpenAI({
apiKey: 'your-crazyrouter-api-key',
baseURL: 'https://crazyrouter.com/v1',
});
const response = await client.chat.completions.create({
model: 'gpt-5-nano',
messages: [
{ role: 'system', content: 'Extract the intent: greeting, question, complaint, or other.' },
{ role: 'user', content: 'Hey, can you help me reset my password?' },
],
max_tokens: 10,
});
console.log(response.choices[0].message.content);
// Output: question
真实场景成本对比#
让我们来看三个超高流量场景,了解 GPT-5-nano 在生产环境中的实际成本表现。
场景 1:每天 1 亿 Token — 文本分类#
使用场景:电商平台每天对 500,000 条产品评论进行情感分类。
- 平均输入:150 Token(评论)+ 50 Token(系统提示)= 200 Token/请求
- 平均输出:5 Token(标签)
- 每日量:500,000 次请求 → 1 亿输入 Token,250 万输出 Token
| 服务商 | 每日输入成本 | 每日输出成本 | 月度总计 |
|---|---|---|---|
| OpenAI 直连 | $20.00 | $3.13 | $694 |
| OpenAI + 缓存 | $4.00 | $3.13 | $214 |
| Crazyrouter | $11.00 | $1.72 | $382 |
| Crazyrouter + 缓存 | $2.20 | $1.72 | $118 |
| Batch API (OpenAI) | $10.00 | $1.56 | $347 |
| Batch API (Crazyrouter) | $5.50 | $0.86 | $191 |
最优方案:Crazyrouter + 缓存,每天 1 亿 Token 的分类任务仅需 $118/月。
场景 2:每天 2 亿 Token — 内容过滤#
使用场景:社交媒体平台每天过滤 200 万条帖子,检查是否违反平台政策。
- 平均输入:80 Token(帖子)+ 500 Token(政策规则)= 580 Token/请求(其中 500 被缓存)
- 平均输出:20 Token(判定结果 + 原因)
- 每日量:2,000,000 次请求 → 约 1.6 亿未缓存 + 10 亿缓存输入 Token,4000 万输出 Token
| 服务商 | 每日成本 | 月度成本 |
|---|---|---|
| OpenAI 直连 | $82.00 | $2,460 |
| OpenAI + 缓存 | $52.00 | $1,560 |
| Crazyrouter + 缓存 | $28.60 | $858 |
| Batch + Crazyrouter | $14.30 | $429 |
最优方案:如果延迟允许,通过 Crazyrouter 使用 Batch API 可将每天 200 万次内容审核决策的成本降至 $429/月。
场景 3:每天 5000 万 Token — 意图路由#
使用场景:客服平台将 100 万条传入消息路由到正确的部门。
- 平均输入:30 Token(消息)+ 200 Token(路由规则)= 230 Token/请求(其中 200 被缓存)
- 平均输出:10 Token(部门 + 置信度)
- 每日量:1,000,000 次请求 → 3000 万新鲜 + 2 亿缓存输入 Token,1000 万输出 Token
| 服务商 | 每日成本 | 月度成本 |
|---|---|---|
| OpenAI 直连 | $18.50 | $555 |
| OpenAI + 缓存 | $10.00 | $300 |
| Crazyrouter + 缓存 | $5.50 | $165 |
最优方案:Crazyrouter + 缓存,每天 100 万次路由决策(亚秒级延迟)仅需 $165/月。
GPT-5-nano vs Gemini 2.5 Flash-Lite vs Claude Haiku#
GPT-5-nano 与其他厂商的经济型模型相比表现如何?
| 特性 | GPT-5-nano | Gemini 2.5 Flash-Lite | Claude 3.5 Haiku |
|---|---|---|---|
| 输入价格 | $0.20 / MTok | $0.075 / MTok | $0.80 / MTok |
| 输出价格 | $1.25 / MTok | $0.30 / MTok | $4.00 / MTok |
| 缓存输入 | $0.02 / MTok | $0.01875 / MTok | $0.08 / MTok |
| 批量折扣 | 50% off | 不可用 | 不可用 |
| 上下文窗口 | 128K | 1M | 200K |
| 速度 | 非常快 | 非常快 | 快 |
| 最适合 | 分类、路由 | 长上下文低成本任务 | 质量/成本均衡 |
对比要点#
- Gemini 2.5 Flash-Lite 在原始 Token 成本上更便宜,但缺少 Batch API 折扣,且在高吞吐量工作负载下延迟不够稳定。
- Claude 3.5 Haiku 推理质量更好,但输入成本高 4 倍,输出成本高 3.2 倍 — 对于简单分类任务来说过于昂贵。
- GPT-5-nano 对 OpenAI 生态用户来说是最佳平衡点:最便宜的 GPT 模型,出色的 Batch API 支持,自动缓存,以及经过大规模验证的可靠性。
何时选择 GPT-5-nano#
- 你已经在 OpenAI 生态中,想要最便宜的选项
- 你的任务很简单:分类、路由、提取、过滤
- 你需要 Batch API 进行离线处理
- 你想要无需配置的自动缓存
- 你看重 OpenAI API 的可靠性和工具生态
何时考虑替代方案#
- 你需要 100 万+ 上下文窗口 → Gemini 2.5 Flash-Lite
- 你需要经济型价格下更强的推理能力 → Claude 3.5 Haiku
- 你纯粹按 Token 成本优化且没有生态偏好 → Gemini 2.5 Flash-Lite
核心要点#
-
输入 1.25/MTok — GPT-5-nano 是目前最便宜的 GPT 模型,没有之一。
-
自动缓存可降低 90% 的输入成本 — 无需配置。重复前缀自动以 $0.02/MTok 缓存。
-
Batch API 节省 50% — 对于非实时工作负载,提交批次即可在输入和输出上享受半价。
-
Crazyrouter 额外节省 45% — 通过 Crazyrouter 的批量定价,以 $0.11/MTok 输入价格使用 GPT-5-nano,功能零缩减。
-
折扣可叠加 — 缓存 + Batch + Crazyrouter 可将批量模式下缓存输入的实际成本降至 $0.01/MTok 以下。
-
专为高吞吐量而生 — GPT-5-nano 不追求成为最聪明的模型。它追求的是在不需要深度推理的任务上做到最快、最便宜。
在 Crazyrouter 上开始使用 GPT-5-nano#
准备好以 45% 折扣运行 GPT-5-nano 了吗?上手不到一分钟:
- 注册 crazyrouter.com
- 获取 API Key — 在控制面板中生成
- 配置 SDK — 将 base URL 指向
https://crazyrouter.com/v1 - 使用模型
gpt-5-nano— 就这样。相同的 API,相同的响应,更低的账单。
无合约。无最低消费。按量付费。
最后更新:2026 年 4 月 27 日
免责声明:定价信息基于截至发布日期 OpenAI 公开的数据。价格可能随时变动,恕不另行通知。Crazyrouter 定价受 crazyrouter.com 上的条款和条件约束。在做出购买决策前,请务必在相应服务商的定价页面上核实当前费率。


