Login
Back to Blog
GPT-5.2の料金を解説 — キャッシュ、Batch API、Crazyrouterで節約する方法

GPT-5.2の料金を解説 — キャッシュ、Batch API、Crazyrouterで節約する方法

C
Crazyrouter Team
April 27, 2026
0 views日本語Pricing
Share:


title: "GPT-5.2の料金を解説 — キャッシュ、Batch API、Crazyrouterで節約する方法" slug: gpt-5-2-pricing summary: "GPT-5.2 APIの料金を徹底解説 — 自動キャッシュとBatch API割引でGPT-5ファミリーの中でも費用対効果の高い選択肢です。" tag: Pricing language: en cover_image_url: "https://raw.githubusercontent.com/xujfcn/images/main/blog/covers/claude-sonnet-4-6-pricing.jpg" meta_title: "GPT-5.2の料金 2026年版 — キャッシュ、Batch API、Crazyrouter割引" meta_description: "GPT-5.2の料金ガイド完全版。自動キャッシュ、Batch API 50%オフ、コンテキストティア — さらにCrazyrouter割引も。" meta_keywords: "GPT-5.2 pricing, OpenAI API cost, GPT-5.2 API, Crazyrouter discount"#

GPT-5.2の料金を解説 — キャッシュ、Batch API、Crazyrouterで節約する方法#

OpenAIのGPT-5ファミリーは、大規模言語モデルAPIの状況を一変させ、GPT-5.2はその中でも最適な位置にあります。軽量なGPT-5-miniとフラッグシップのGPT-5.4の間に位置するGPT-5.2は、強力な推論能力、優れた指示追従性、幅広いマルチモーダル機能を備え、そのすべてが本番ワークロードで実用的な価格で提供されます。

もしGPT-4oやGPT-4.1を本番環境で運用していて、アップグレードを検討しているなら、GPT-5.2が最適な選択肢となるでしょう。GPT-5.4のプレミアム価格を支払うことなく、GPT-4世代よりも大幅なインテリジェンスの向上を提供します。さらに、組み込みの自動キャッシュ、Batch API割引、そしてCrazyrouterのようなサードパーティのルーティングオプションを利用することで、実質的なコストを劇的に削減できます。

このガイドでは、GPT-5.2の料金のあらゆる側面 — 基本料金、キャッシュの仕組み、バッチ割引、そして節約を重ねる方法 — を詳しく解説します。チャットボットを構築している場合でも、ドキュメントを大規模に処理している場合でも、エージェントワークフローを実行している場合でも、GPT-5.2がどれくらいの費用がかかり、その数を最小限に抑える方法を正確に理解できるようになるでしょう。

最終更新日: 2026年4月27日

GPT-5.2の基本料金#

OpenAIの料金ページから直接、公式の数字を見てみましょう。

コンポーネント100万トークンあたりの料金
Input tokens$1.50 / MTok
Cached input tokens$0.15 / MTok
Output tokens$10.00 / MTok

いくつかの点がすぐに目につきます。

まず、入力と出力の価格比は約1:7です。これはGPT-5ファミリー全体で共通のパターンです。出力トークンは、入力トークンが並行して処理できるのに対し、順次生成(各トークンが前のトークンに依存する)を必要とするため、入力トークンよりも大幅に高価です。この比率はコスト最適化戦略にとって非常に重要です。もしアプリケーションが出力ヘビー(長文生成、コード作成、詳細な分析など)であれば、出力トークンが請求額の大部分を占めることになります。

次に、キャッシュされた入力トークンは、標準入力価格のわずか**10%**です。これは繰り返されるコンテキストに対して90%の割引であり、自動的に適用されます。これについては次のセクションで詳しく説明します。

第三に、前世代と比較して、GPT-5.2は1ドルあたりの機能が大幅に向上しています。GPT-4oは入力/出力で2.50/2.50/10.00でしたが、GPT-5.2は1.50/1.50/10.00となり、ベンチマーク全体で大幅に優れたパフォーマンスを発揮しながら、入力コストが40%削減されています。

コンテキストウィンドウとレート制限#

GPT-5.2は、標準APIアクセスで最大128Kトークンのコンテキストウィンドウをサポートします。OpenAIのレート制限は使用ティアによって異なりますが、ほとんどの本番アカウント(Tier 3以上)は十分なスループットを得られます。このモデルはテキスト、画像、音声入力をサポートしていますが、画像と音声トークンはそれぞれのトークン変換レートに従って課金されます。

ほとんどのテキストベースのアプリケーションでは、英語で約4文字あたり1トークン、または1,000トークンあたり約750語でトークン数を推定できます。

自動キャッシュ — 隠れたコスト削減機能#

GPT-5ファミリーで最も影響の大きい料金機能の1つは自動プロンプトキャッシュであり、GPT-5.2はその恩恵を最大限に受けています。

仕組み#

OpenAIはプロンプトのプレフィックスを自動的にキャッシュします。リクエストを送信すると、システムは入力の先頭が最近キャッシュされたプロンプトプレフィックスと一致するかどうかをチェックします。一致した場合、その一致するトークンは標準入力料金(1.50/MTok)ではなく、キャッシュ料金(1.50/MTok)ではなく、キャッシュ料金(0.15/MTok)で課金されます。

主な詳細:

  • キャッシュは自動です。 有効にしたり、設定したり、API呼び出しを変更したりする必要はありません。ただ機能します。
  • 最小プレフィックス長は1,024トークンです。 これより短いプロンプトはキャッシュの恩恵を受けません。
  • キャッシュの一致はプレフィックスベースです。 システムはプロンプトの先頭から前方に向かって一致を検出します。システムプロンプトが2,000トークンで、キャッシュされたバージョンと一致する場合、その2,000トークンは、その後に続くユーザーメッセージが異なっていても、キャッシュ料金が適用されます。
  • キャッシュの有効期間は通常、アクティブなプロンプトで5~10分ですが、頻繁に使用されるプレフィックスはより長く保持される場合があります。
  • キャッシュヒットはAPIレスポンスのusageオブジェクトで報告されるため、どれだけ節約できているかを正確に追跡できます。

なぜこれが重要なのか#

ほとんどの本番アプリケーションでは、すべてのリクエストの大部分が同一です。システムプロンプト、few-shotの例、ツール定義、会話履歴のプレフィックスなどです。自動キャッシュを使用すると、この共有コンテキストに対して、キャッシュウィンドウごとに1回だけ全額を支払うことになります。

3,000トークンのシステムプロンプトを持つ典型的なチャットボットを考えてみましょう。キャッシュがない場合、すべてのリクエストでその3,000トークンに対して1.50/MTokが課金されます。キャッシュがある場合(最初のリクエスト後)、それらのトークンは1.50/MTokが課金されます。キャッシュがある場合(最初のリクエスト後)、それらのトークンは0.15/MTokに下がり、その後のすべてのリクエストで100万キャッシュトークンあたり$4.05節約できます。

キャッシュヒットを最大化するには:

  1. 静的コンテンツを最初に配置します。 システムプロンプト、ツール定義、few-shotの例は、動的コンテンツ(ユーザーメッセージ、可変コンテキスト)の前に来るべきです。
  2. プロンプトプレフィックスを安定させます。 リクエスト間でプロンプトの先頭をランダム化したり、並べ替えたりしないでください。
  3. 類似のリクエストを時間的にまとめてバッチ処理します。 キャッシュエントリは数分間持続するため、分散したリクエストよりも、類似のリクエストのバーストの方が恩恵を受けます。
  4. より長いシステムプロンプトを自信を持って使用します。 キャッシュ割引により、包括的な指示を含む詳細なシステムプロンプトは、予想よりもはるかに安価になります。キャッシュされたシステムプロンプトに1,000トークンを追加する限界コストは、100万リクエストあたりわずか$0.15です。

キャッシュによる節約の見積もり#

簡単な計算式は次のとおりです。

code
Effective input cost = (uncached_tokens × $1.50 + cached_tokens × $0.15) / total_input_tokens

入力トークンの80%がキャッシュにヒットする場合(安定したシステムプロンプトを持つチャットボットでは一般的)、実質的な入力レートは次のようになります。

code
(0.2 × $1.50) + (0.8 × $0.15) = $0.30 + $0.12 = $0.42 / MTok

これは基本入力価格から72%の削減です。すでに競争力のある基本料金と組み合わせることで、GPT-5.2は大量のアプリケーションにとって驚くほど手頃な価格になります。

Batch API — 非同期ワークロードで50%オフ#

OpenAIのBatch APIは、リアルタイム応答を必要としないワークロードに対して、入力トークンと出力トークンの両方で一律50%割引を提供します。

GPT-5.2のBatch API料金#

コンポーネント標準料金Batch API料金
Input tokens$1.50 / MTok$0.75 / MTok
Cached input tokens$0.15 / MTok$0.075 / MTok
Output tokens$10.00 / MTok$5.00 / MTok

はい、Batch APIリクエスト内でも自動キャッシュは適用されます。バッチに共有プレフィックスを持つ多くのリクエストが含まれている場合、キャッシュ割引とバッチ割引の両方を得ることができます。これらは積み重ねられます。

Batch APIを使用するタイミング#

Batch APIは、最大24時間の完了ウィンドウを許容できるワークロード向けに設計されています(ただし、ほとんどのバッチははるかに速く完了します)。理想的なユースケースは次のとおりです。

  • ドキュメント処理と分類 — 数千のサポートチケットの分類、契約書からのデータ抽出、研究論文の要約。
  • コンテンツ生成パイプライン — 製品説明、ブログの下書き、メールテンプレートを大規模に生成。
  • 評価とテスト — 大規模なデータセット全体でのモデル評価の実行、プロンプトバリエーションのA/Bテスト。
  • データエンリッチメント — 既存のデータベースにAI生成のメタデータ、タグ、または要約を追加。
  • オフライン分析 — 履歴データに対する感情分析、エンティティ抽出、またはトピックモデリング。

バッチの送信方法#

各行が標準のチャット完了リクエストであるJSONLファイルを準備し、それをアップロードしてバッチを作成します。OpenAIはリクエストを処理し、完了時に結果を返します。

python
from openai import OpenAI

client = OpenAI()

# Upload your JSONL file
batch_file = client.files.create(
    file=open("requests.jsonl", "rb"),
    purpose="batch"
)

# Create the batch
batch = client.batches.create(
    input_file_id=batch_file.id,
    endpoint="/v1/chat/completions",
    completion_window="24h"
)

# Check status later
status = client.batches.retrieve(batch.id)
print(status.status)  # "completed", "in_progress", etc.

requests.jsonlの各行は次のようになります。

json
{"custom_id": "req-1", "method": "POST", "url": "/v1/chat/completions", "body": {"model": "gpt-5.2", "messages": [{"role": "user", "content": "Summarize this article..."}], "max_tokens": 1000}}

非同期処理を許容できるワークロードの場合、Batch APIは基本的に無料のお金です。同じモデル、同じ品質で、半額です。

Crazyrouter — 公式料金の55%#

リアルタイムAPIアクセス(バッチではない)が必要だが、それでも大幅な節約をしたい場合は、CrazyrouterがGPT-5.2をOpenAIの公式料金の**55%**で提供します。

GPT-5.2のCrazyrouter料金#

コンポーネントOpenAI公式Crazyrouter (55%)
Input tokens$1.50 / MTok$0.825 / MTok
Output tokens$10.00 / MTok$5.50 / MTok

これは、モデルの変更、品質の低下、バッチの遅延なしに、すべてのトークンで45%の割引です。リアルタイムのストリーミング応答で同じGPT-5.2モデルを利用できます。

仕組み#

CrazyrouterはOpenAI互換のAPIプロキシです。標準のOpenAI SDKまたは任意のHTTPクライアントを使用し、base URLを変更するだけです。既存のコードは1行の変更で動作します。

OpenAI Python SDKとの統合#

python
from openai import OpenAI

client = OpenAI(
    api_key="your-crazyrouter-api-key",
    base_url="https://crazyrouter.com/v1"
)

response = client.chat.completions.create(
    model="gpt-5.2",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Explain quantum computing in simple terms."}
    ]
)

print(response.choices[0].message.content)

cURLとの統合#

bash
curl https://crazyrouter.com/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer your-crazyrouter-api-key" \
  -d '{
    "model": "gpt-5.2",
    "messages": [
      {"role": "system", "content": "You are a helpful assistant."},
      {"role": "user", "content": "Explain quantum computing in simple terms."}
    ]
  }'

Node.js / TypeScriptとの統合#

typescript
import OpenAI from "openai";

const client = new OpenAI({
  apiKey: "your-crazyrouter-api-key",
  baseURL: "https://crazyrouter.com/v1",
});

const response = await client.chat.completions.create({
  model: "gpt-5.2",
  messages: [
    { role: "system", content: "You are a helpful assistant." },
    { role: "user", content: "Explain quantum computing in simple terms." },
  ],
});

console.log(response.choices[0].message.content);

Crazyrouterは、ストリーミング、関数呼び出し、JSONモード、ビジョン入力、その他すべてのGPT-5.2機能をサポートしています。これはドロップイン置換であり、唯一の違いは価格です。

実世界のコストシナリオ#

これらの数字を3つの実用的なシナリオで見てみましょう。

シナリオ1:カスタマーサポートチャットボット#

設定: 1日あたり50,000件の会話を処理するチャットボット。各会話は平均5ターン。システムプロンプトは2,500トークン(最初のリクエスト後にキャッシュされる)。平均ユーザーメッセージは150トークン、平均応答は300トークン。

会話あたりのトークン計算:

  • 入力:2,500(システム、2~5ターンでキャッシュ)+ 5 × 150(ユーザーメッセージ)+ 蓄積された履歴 ≈ 合計5,000入力トークン
  • そのうち約80%がキャッシュにヒット ≈ 4,000キャッシュ、1,000非キャッシュ
  • 出力:5 × 300 = 1,500トークン

OpenAI直接利用での日次コスト:

  • 入力:(1,000 × 1.50+4,000×1.50 + 4,000 × 0.15) / 1M × 50,000 = (0.0015 + 0.0006) × 50,000 = $105/日
  • 出力:1,500 × 10.00/1M×50,000=10.00 / 1M × 50,000 = **750/日**
  • 合計:855/日(約855/日(約25,650/月)

Crazyrouter利用時(55%):

  • 合計:470/日(約470/日(約14,108/月)
  • 節約額:$11,542/月

シナリオ2:ドキュメント処理パイプライン#

設定: 分類および抽出パイプラインを通じて、1日あたり10,000件の法的文書を処理。各文書は平均8,000トークンの入力、2,000トークンの出力。Batch APIを使用。

OpenAI Batch API利用時(50%オフ)の日次コスト:

  • 入力:8,000 × 0.75/1M×10,000=0.75 / 1M × 10,000 = **60/日**
  • 出力:2,000 × 5.00/1M×10,000=5.00 / 1M × 10,000 = **100/日**
  • 合計:160/日(約160/日(約4,800/月)

バッチなしの標準料金と比較すると、320/日(320/日(9,600/月)です。Batch APIは、同じ結果に対して請求額を半分に削減します。

シナリオ3:AIを活用したコンテンツ生成#

設定: 1日あたり500記事を生成するコンテンツプラットフォーム。各記事には3,000トークンのシステムプロンプト(キャッシュされる)、1,000トークンの概要が必要で、4,000トークンの出力を生成。

OpenAI直接利用での日次コスト:

  • 入力:(1,000 × 1.50+3,000×1.50 + 3,000 × 0.15) / 1M × 500 = (0.0015 + 0.00045) × 500 = $0.98/日
  • 出力:4,000 × 10.00/1M×500=10.00 / 1M × 500 = **20.00/日**
  • 合計:約20.98/日(約20.98/日(約629/月)

Crazyrouter利用時:

  • 合計:約11.54/日(約11.54/日(約346/月)
  • 節約額:$283/月

中規模のスケールでも、節約額は積み重なります。そして、どのシナリオでも出力トークンがコストの大部分を占めていることに注目してください。この1:7の入力対出力比は、出力の長さを最適化すること(簡潔な指示の使用、適切なmax_tokensの設定)が請求額に最も大きな影響を与えることを意味します。

GPT-5.2 vs GPT-5.4 vs GPT-5-mini — どこに位置するか?#

GPT-5ファミリーにおけるGPT-5.2の位置付けを理解することで、ワークロードに適したモデルを選択できます。

GPT-5-mini — 予算オプション#

GPT-5-mini
Input$0.40 / MTok
Cached Input$0.04 / MTok
Output$1.60 / MTok

GPT-5-miniは、OpenAIの最も手頃なGPT-5モデルです。高速で安価であり、簡単なタスクには驚くほど有能です。分類、単純な抽出、ルーティング、および生のインテリジェンスがボトルネックにならないあらゆるタスクに使用してください。GPT-4o-miniの後継として自然であり、大量で低複雑度のワークロードを効率的に処理します。

最適用途: 大量の単純なタスク、分類、ルーティング、基本的なQ&A、コスト重視のアプリケーション。

GPT-5.2 — バランスの取れた選択肢#

GPT-5.2
Input$1.50 / MTok
Cached Input$0.15 / MTok
Output$10.00 / MTok

GPT-5.2は、ファミリーの主力モデルです。複雑な推論、微妙なニュアンスの文章作成、コード生成、多段階分析を高い信頼性で処理します。基本的な機能以上のものを必要とするほとんどの本番アプリケーションにとって、GPT-5.2はパフォーマンスとコストの最適なバランスを提供します。GPT-5-miniの約4倍の価格ですが、複雑なタスクでは大幅に優れた結果をもたらします。

最適用途: 本番チャットボット、コンテンツ生成、コードアシスタンス、ドキュメント分析、エージェントワークフロー、強力な推論を必要とするあらゆるタスク。

GPT-5.4 — フラッグシップ#

GPT-5.4
Input$2.50 / MTok
Cached Input$0.25 / MTok
Output$15.00 / MTok

GPT-5.4は、OpenAIの最も高性能なモデルです。最も難しいタスク — 複雑な数学的推論、博士号レベルの科学分析、複雑なコードアーキテクチャ、深い理解を必要とする創造的な文章作成 — に優れています。GPT-5.2に対する価格プレミアムは約50〜67%であるため、その追加機能が実際に重要となるタスクのために予約する価値があります。

最適用途: 研究、複雑な推論チェーン、重要なコンテンツ、GPT-5.2では不十分なタスク。

適切なモデルの選択#

実用的なアプローチ:GPT-5-miniから始め、必要に応じてGPT-5.2にアップグレードし、難しいタスクにはGPT-5.4を予約する。 多くの本番システムは階層的なアプローチを採用しており、単純なクエリはGPT-5-miniにルーティングし、複雑なクエリはGPT-5.2にルーティングし、エッジケースにはGPT-5.4をフォールバックとして使用します。

GPT-5.2は、ほとんどのチームにとってデフォルトの選択肢です。なぜなら、実世界のタスクの90%以上をうまく処理できるからです。コストが最優先の制約である場合にのみGPT-5-miniが必要であり、特定のタスクでGPT-5.2の機能の限界に達した場合にのみGPT-5.4が必要になります。

主要なポイント#

  1. GPT-5.2の基本料金は入力1.50/MTok、出力1.50/MTok、出力10.00/MTokです — その機能レベルとしては競争力があり、GPT-4oからの大幅なアップグレードです。

  2. 自動キャッシュは入力コストを最大90%削減できます。 キャッシュヒットを最大化するために、静的コンテンツを最初に配置してプロンプトを構造化してください。設定は不要で、ただ機能します。

  3. Batch APIは、リアルタイム応答を必要としないワークロードに対して、すべてを50%オフにします。 キャッシュ割引はその上に積み重ねられます。

  4. Crazyrouterは、base URLの更新以外のコード変更なしで、リアルタイムAPIアクセスで45%の節約(公式料金の55%)を提供します。

  5. 出力トークンがコストの大部分を占めます。 出力の長さの最適化に注力してください — 簡潔なシステムプロンプトを使用し、適切なmax_tokensを設定し、2,000トークンの出力が本当に必要か、500トークンで十分かを検討してください。

  6. GPT-5.2は、ほとんどの本番ユースケースにとってGPT-5ファミリーのスイートスポットです。 GPT-5-miniよりも大幅に高性能であり、GPT-5.4よりも大幅に安価です。

  7. 割引を積み重ねましょう。 リアルタイムワークロードにはキャッシュ(自動)+ Crazyrouter(45%オフ)を、非同期ワークロードにはキャッシュ + Batch API(50%オフ)を使用してください。どちらの組み合わせも、GPT-5.2を驚くほど費用対効果の高いものにします。

Crazyrouterを始める#

GPT-5.2のコストを45%削減する準備はできていますか?Crazyrouterの開始には約30秒かかります。

  1. crazyrouter.comサインアップし、APIキーを取得します。
  2. コードの1行を変更します — base_url="https://crazyrouter.com/v1"を設定します。
  3. それだけです。 同じモデル、同じ機能、同じ品質。より低い価格で。

Crazyrouterは、チャット補完、ストリーミング、関数呼び出し、ビジョン、JSONモードなど、完全なOpenAI APIサーフェスをサポートしています。Python、Node.js用の公式OpenAI SDK、および任意のHTTPクライアントで動作します。すべてのGPT-5ファミリーモデルに加え、Claude、Gemini、その他の主要モデルも利用できます。

利用可能なすべてのモデルと料金はcrazyrouter.com/pricingでご覧ください。


免責事項:料金情報は2026年4月27日時点のものです。OpenAIはいつでも料金を変更する可能性があります。常にOpenAIの公式料金ページで現在のレートを確認してください。Crazyrouterの料金は独自の利用規約に従い、独立して調整される場合があります。この記事のトークン数とコスト見積もりは、説明のための概算です。この記事は情報提供のみを目的としており、財務上のアドバイスを構成するものではありません。

Related Articles