Login
Back to Blog
GPT-5-nano 定价详解 — 适用于高吞吐量工作负载的最便宜 GPT 模型

GPT-5-nano 定价详解 — 适用于高吞吐量工作负载的最便宜 GPT 模型

C
Crazyrouter Team
April 27, 2026
1 views中文Pricing
Share:


title: GPT-5-nano 定价详解 — 适用于高吞吐量工作负载的最便宜 GPT 模型 slug: gpt-5-nano-pricing-zh summary: GPT-5-nano API 定价全面解析 — 仅需 0.20/0.20/1.25 每百万 Token,自动缓存,Batch API 半价优惠,以及 Crazyrouter 折扣。 tag: Pricing language: zh cover_image_url: https://raw.githubusercontent.com/xujfcn/images/main/blog/covers/claude-sonnet-4-6-pricing.jpg meta_title: GPT-5-nano 2026 定价 — 最便宜的 GPT 模型 & Crazyrouter meta_description: GPT-5-nano 完整定价指南。输入仅需 $0.20/MTok — 最便宜的 GPT 模型。缓存、Batch API,以及 Crazyrouter 折扣。 meta_keywords: GPT-5-nano pricing, cheapest AI API, OpenAI nano model, high throughput AI, Crazyrouter discount#

GPT-5-nano 定价详解 — 适用于高吞吐量工作负载的最便宜 GPT 模型#

OpenAI 的 GPT-5-nano 是 GPT-5 系列中最小、最便宜的模型,专为速度和成本优先于深度推理的高吞吐量工作负载而设计。输入仅需 0.20每百万Token,输出仅需0.20 每百万 Token**,输出仅需 **1.25 每百万 Token,它是 OpenAI 有史以来发布的最实惠的 GPT 模型 — 而通过 Crazyrouter,你还能以更低的价格使用它。

无论你是在运行分类流水线、大规模内容过滤,还是每天处理数百万请求的意图路由,GPT-5-nano 都能以极低的成本提供 GPT 级别的智能。本指南将详细拆解每个定价层级、折扣机制和真实场景下的成本计算,帮助你精准规划预算。

基础定价#

GPT-5-nano 采用 OpenAI 标准的按 Token 计费模型。以下是官方价格表:

层级输入输出
标准$0.20 / MTok$1.25 / MTok
缓存输入$0.02 / MTok
Batch API$0.10 / MTok$0.625 / MTok

关键细节:

  • 无长上下文定价层级 — GPT-5-nano 拥有固定的上下文窗口,不像大型模型那样对扩展上下文收取额外费用。
  • 按 Token 付费 — 你只需为实际使用的 Token 付费。没有最低消费承诺,没有预留容量费用。
  • 相同的计费基础设施 — 与你现有的 OpenAI 计费设置、使用层级和速率限制完全兼容。

换个角度来看:处理 100 万个输入 Token 仅需 $0.20 — 大约 75 万个英文单词只要两毛钱。对于输出很短(单个标签或分数)的分类和路由任务,每次请求的实际成本可以降到几分之一美分。

自动缓存#

GPT-5-nano 最强大的省钱功能之一是自动提示缓存。OpenAI 会自动缓存频繁使用的提示前缀,缓存命中的 Token 仅收取标准输入价格的 10%。

工作原理#

  • 缓存输入 Token:$0.02 / MTok(相比标准输入价格打一折)
  • 全自动 — 无需任何配置。OpenAI 会自动检测重复的提示前缀并透明地进行缓存。
  • 缓存命中发生在你的请求共享至少 1,024 个 Token 的相同系统提示或前缀时。

缓存最能省钱的场景#

缓存对以下工作负载最为有效:

  1. 长系统提示 — 如果你使用了详细的系统提示(分类规则、输出格式、少样本示例),该前缀在第一次请求后就会被缓存。
  2. 批量分类 — 通过同一分类流水线发送数千个项目,意味着只有第一次请求需要为系统提示支付全价。
  3. 一致的前缀 — 任何请求中前 N 个 Token 保持相同的工作流。

成本影响示例#

假设一个分类流水线使用 2,000 Token 的系统提示,每天处理 100,000 个项目,每个项目有 200 Token 的用户输入:

  • 无缓存:(2,000 + 200) × 100,000 = 2.2 亿输入 Token → $44.00/天
  • 有缓存:(2,000 × 0.02/MTok+200×0.02/MTok + 200 × 0.20/MTok) × 100,000 = 4.00+4.00 + 4.00 = $8.00/天

仅凭自动缓存就实现了输入成本降低 82% — 无需任何代码改动。

Batch API#

对于不需要实时响应的工作负载,OpenAI 的 Batch API 对输入和输出 Token 均提供50% 的固定折扣

Batch API 定价#

Token 类型标准价格Batch API节省
输入$0.20 / MTok$0.10 / MTok50%
输出$1.25 / MTok$0.625 / MTok50%

Batch API 工作方式#

  1. 提交批次 — 上传一个包含最多 50,000 个请求的 JSONL 文件。
  2. 等待处理 — 批次在 24 小时内完成(通常快得多)。
  3. 获取结果 — 下载包含所有响应的已完成批次。

Batch + GPT-5-nano 的理想使用场景#

  • 每晚内容审核 — 将当天的用户生成内容在夜间一次性批量处理。
  • 批量分类 — 对数百万产品、工单或文档进行分类。
  • 数据增强 — 为大型数据集添加标签、摘要或元数据。
  • 评估流水线 — 对模型输出进行评分或对训练数据进行质量检查。

Batch API + 缓存叠加#

没错,缓存与 Batch API 可以同时生效。如果你的批量请求共享相同的前缀,两种折扣可以叠加:

  • Batch 模式下的缓存输入:实际仅需 **0.01/MTok0.01 / MTok**(0.02 缓存价格再享 50% 批量折扣)
  • 这比标准输入价格便宜 95%

Crazyrouter 定价#

通过 Crazyrouter,你可以以 OpenAI 官方定价的 55% 使用 GPT-5-nano — 即 45% 的折扣,且不会降低速率限制或功能。

Crazyrouter 价格#

Token 类型OpenAI 官方Crazyrouter节省
输入$0.20 / MTok$0.11 / MTok45%
输出$1.25 / MTok$0.6875 / MTok45%

为什么 Crazyrouter 更便宜#

Crazyrouter 汇聚了数千名开发者的需求,与 OpenAI 协商批量定价,并将节省的费用直接传递给你。你将获得:

  • 相同的模型,相同的质量 — 与直接调用 OpenAI 完全一致的输出
  • OpenAI 兼容 API — 即插即用,无需修改代码
  • 无速率限制惩罚 — 与直接访问相同的吞吐量
  • 按量付费 — 无最低消费,无合约承诺

代码示例:OpenAI Python SDK#

python
from openai import OpenAI

client = OpenAI(
    api_key="your-crazyrouter-api-key",
    base_url="https://crazyrouter.com/v1"
)

response = client.chat.completions.create(
    model="gpt-5-nano",
    messages=[
        {"role": "system", "content": "Classify the following text into one of: positive, negative, neutral."},
        {"role": "user", "content": "This product exceeded my expectations in every way!"}
    ],
    max_tokens=10
)

print(response.choices[0].message.content)
# Output: positive

代码示例:cURL#

bash
curl https://crazyrouter.com/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer your-crazyrouter-api-key" \
  -d '{
    "model": "gpt-5-nano",
    "messages": [
      {"role": "system", "content": "Classify sentiment: positive, negative, or neutral."},
      {"role": "user", "content": "Terrible experience, would not recommend."}
    ],
    "max_tokens": 10
  }'

代码示例:Node.js#

javascript
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: 'your-crazyrouter-api-key',
  baseURL: 'https://crazyrouter.com/v1',
});

const response = await client.chat.completions.create({
  model: 'gpt-5-nano',
  messages: [
    { role: 'system', content: 'Extract the intent: greeting, question, complaint, or other.' },
    { role: 'user', content: 'Hey, can you help me reset my password?' },
  ],
  max_tokens: 10,
});

console.log(response.choices[0].message.content);
// Output: question

真实场景成本对比#

让我们来看三个超高流量场景,了解 GPT-5-nano 在生产环境中的实际成本表现。

场景 1:每天 1 亿 Token — 文本分类#

使用场景:电商平台每天对 500,000 条产品评论进行情感分类。

  • 平均输入:150 Token(评论)+ 50 Token(系统提示)= 200 Token/请求
  • 平均输出:5 Token(标签)
  • 每日量:500,000 次请求 → 1 亿输入 Token,250 万输出 Token
服务商每日输入成本每日输出成本月度总计
OpenAI 直连$20.00$3.13$694
OpenAI + 缓存$4.00$3.13$214
Crazyrouter$11.00$1.72$382
Crazyrouter + 缓存$2.20$1.72$118
Batch API (OpenAI)$10.00$1.56$347
Batch API (Crazyrouter)$5.50$0.86$191

最优方案:Crazyrouter + 缓存,每天 1 亿 Token 的分类任务仅需 $118/月

场景 2:每天 2 亿 Token — 内容过滤#

使用场景:社交媒体平台每天过滤 200 万条帖子,检查是否违反平台政策。

  • 平均输入:80 Token(帖子)+ 500 Token(政策规则)= 580 Token/请求(其中 500 被缓存)
  • 平均输出:20 Token(判定结果 + 原因)
  • 每日量:2,000,000 次请求 → 约 1.6 亿未缓存 + 10 亿缓存输入 Token,4000 万输出 Token
服务商每日成本月度成本
OpenAI 直连$82.00$2,460
OpenAI + 缓存$52.00$1,560
Crazyrouter + 缓存$28.60$858
Batch + Crazyrouter$14.30$429

最优方案:如果延迟允许,通过 Crazyrouter 使用 Batch API 可将每天 200 万次内容审核决策的成本降至 $429/月

场景 3:每天 5000 万 Token — 意图路由#

使用场景:客服平台将 100 万条传入消息路由到正确的部门。

  • 平均输入:30 Token(消息)+ 200 Token(路由规则)= 230 Token/请求(其中 200 被缓存)
  • 平均输出:10 Token(部门 + 置信度)
  • 每日量:1,000,000 次请求 → 3000 万新鲜 + 2 亿缓存输入 Token,1000 万输出 Token
服务商每日成本月度成本
OpenAI 直连$18.50$555
OpenAI + 缓存$10.00$300
Crazyrouter + 缓存$5.50$165

最优方案:Crazyrouter + 缓存,每天 100 万次路由决策(亚秒级延迟)仅需 $165/月

GPT-5-nano vs Gemini 2.5 Flash-Lite vs Claude Haiku#

GPT-5-nano 与其他厂商的经济型模型相比表现如何?

特性GPT-5-nanoGemini 2.5 Flash-LiteClaude 3.5 Haiku
输入价格$0.20 / MTok$0.075 / MTok$0.80 / MTok
输出价格$1.25 / MTok$0.30 / MTok$4.00 / MTok
缓存输入$0.02 / MTok$0.01875 / MTok$0.08 / MTok
批量折扣50% off不可用不可用
上下文窗口128K1M200K
速度非常快非常快
最适合分类、路由长上下文低成本任务质量/成本均衡

对比要点#

  • Gemini 2.5 Flash-Lite 在原始 Token 成本上更便宜,但缺少 Batch API 折扣,且在高吞吐量工作负载下延迟不够稳定。
  • Claude 3.5 Haiku 推理质量更好,但输入成本高 4 倍,输出成本高 3.2 倍 — 对于简单分类任务来说过于昂贵。
  • GPT-5-nano 对 OpenAI 生态用户来说是最佳平衡点:最便宜的 GPT 模型,出色的 Batch API 支持,自动缓存,以及经过大规模验证的可靠性。

何时选择 GPT-5-nano#

  • 你已经在 OpenAI 生态中,想要最便宜的选项
  • 你的任务很简单:分类、路由、提取、过滤
  • 你需要 Batch API 进行离线处理
  • 你想要无需配置的自动缓存
  • 你看重 OpenAI API 的可靠性和工具生态

何时考虑替代方案#

  • 你需要 100 万+ 上下文窗口 → Gemini 2.5 Flash-Lite
  • 你需要经济型价格下更强的推理能力 → Claude 3.5 Haiku
  • 你纯粹按 Token 成本优化且没有生态偏好 → Gemini 2.5 Flash-Lite

核心要点#

  1. 输入 0.20/MTok,输出0.20/MTok,输出 1.25/MTok — GPT-5-nano 是目前最便宜的 GPT 模型,没有之一。

  2. 自动缓存可降低 90% 的输入成本 — 无需配置。重复前缀自动以 $0.02/MTok 缓存。

  3. Batch API 节省 50% — 对于非实时工作负载,提交批次即可在输入和输出上享受半价。

  4. Crazyrouter 额外节省 45% — 通过 Crazyrouter 的批量定价,以 $0.11/MTok 输入价格使用 GPT-5-nano,功能零缩减。

  5. 折扣可叠加 — 缓存 + Batch + Crazyrouter 可将批量模式下缓存输入的实际成本降至 $0.01/MTok 以下。

  6. 专为高吞吐量而生 — GPT-5-nano 不追求成为最聪明的模型。它追求的是在不需要深度推理的任务上做到最快、最便宜。

在 Crazyrouter 上开始使用 GPT-5-nano#

准备好以 45% 折扣运行 GPT-5-nano 了吗?上手不到一分钟:

  1. 注册 crazyrouter.com
  2. 获取 API Key — 在控制面板中生成
  3. 配置 SDK — 将 base URL 指向 https://crazyrouter.com/v1
  4. 使用模型 gpt-5-nano — 就这样。相同的 API,相同的响应,更低的账单。

无合约。无最低消费。按量付费。

→ 获取你的 API Key


最后更新:2026 年 4 月 27 日

免责声明:定价信息基于截至发布日期 OpenAI 公开的数据。价格可能随时变动,恕不另行通知。Crazyrouter 定价受 crazyrouter.com 上的条款和条件约束。在做出购买决策前,请务必在相应服务商的定价页面上核实当前费率。

Related Articles