Login
Back to Blog
Jak uzyskać dostęp do GPT-5 i GPT-5.2 przez API – kompletny przewodnik dla deweloperów

Jak uzyskać dostęp do GPT-5 i GPT-5.2 przez API – kompletny przewodnik dla deweloperów

C
Crazyrouter Team
January 23, 2026
12 viewsPolskiTutorial
Share:

OpenAI udostępniło swoje jak dotąd najsilniejsze modele: GPT-5, GPT-5.2 oraz nastawiony na rozumowanie model o3-pro. Ten przewodnik pokazuje, jak uzyskać dostęp do tych najnowocześniejszych modeli za pośrednictwem ujednoliconego API Crazyrouter.

Obsługiwane modele OpenAI#

Crazyrouter zapewnia dostęp do pełnej linii modeli OpenAI:

ModelInput ($/1M tokens)Output ($/1M tokens)Best For
gpt-5.2$1.75$14.00Najnowszy flagowy model, złożone zadania
gpt-5.2-pro$3.50$28.00Rozszerzone rozumowanie
gpt-5$1.25$10.00Zadania ogólne
gpt-5-pro$2.50$20.00Zaawansowana analiza
gpt-5-mini$0.25$2.00Ekonomiczne rozwiązanie
gpt-5-nano$0.05$0.40Zadania o dużej skali
o3-pro$20.00$80.00Złożone rozumowanie
o3-mini$1.10$4.40Efektywne rozumowanie
o4-mini$1.10$4.40Najnowszy model do rozumowania

Szybki start#

1. Pobierz swój klucz API#

  1. Odwiedź Crazyrouter Console
  2. Przejdź do „Token Management”
  3. Kliknij „Create Token”
  4. Skopiuj swój klucz API (zaczyna się od sk-)

2. Wykonaj swoje pierwsze żądanie#

Używając Pythona (zalecane)#

python
from openai import OpenAI

client = OpenAI(
    api_key="sk-your-api-key",
    base_url="https://crazyrouter.com/v1",
    default_headers={
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36"
    }
)

response = client.chat.completions.create(
    model="gpt-5.2",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Explain quantum computing in simple terms."}
    ],
    temperature=0.7,
    max_tokens=1000
)

print(response.choices[0].message.content)

Używając Node.js#

javascript
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: 'sk-your-api-key',
  baseURL: 'https://crazyrouter.com/v1',
  defaultHeaders: {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36'
  }
});

async function main() {
  const response = await client.chat.completions.create({
    model: 'gpt-5.2',
    messages: [
      { role: 'system', content: 'You are a helpful assistant.' },
      { role: 'user', content: 'Explain quantum computing in simple terms.' }
    ],
    temperature: 0.7
  });

  console.log(response.choices[0].message.content);
}

main();

Używając curl#

bash
curl https://crazyrouter.com/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer sk-your-api-key" \
  -H "User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36" \
  -d '{
    "model": "gpt-5.2",
    "messages": [{"role": "user", "content": "Hello, GPT-5.2!"}],
    "temperature": 0.7
  }'

Strumieniowanie odpowiedzi#

Aby uzyskać dane w czasie rzeczywistym, włącz strumieniowanie:

python
from openai import OpenAI

client = OpenAI(
    api_key="sk-your-api-key",
    base_url="https://crazyrouter.com/v1",
    default_headers={
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36"
    }
)

stream = client.chat.completions.create(
    model="gpt-5.2",
    messages=[{"role": "user", "content": "Write a short story about AI."}],
    stream=True
)

for chunk in stream:
    if chunk.choices[0].delta.content:
        print(chunk.choices[0].delta.content, end="", flush=True)

Korzystanie z modeli do rozumowania (o3-pro)#

Model o3-pro świetnie sprawdza się w złożonych zadaniach wymagających rozumowania:

python
response = client.chat.completions.create(
    model="o3-pro",
    messages=[
        {"role": "user", "content": "Solve this step by step: If a train travels 120 miles in 2 hours, then stops for 30 minutes, then travels another 90 miles in 1.5 hours, what is the average speed for the entire journey including the stop?"}
    ]
)

print(response.choices[0].message.content)

Modele GPT-5 Codex#

Do zadań związanych z generowaniem kodu używaj wyspecjalizowanych modeli codex:

python
response = client.chat.completions.create(
    model="gpt-5-codex",
    messages=[
        {"role": "user", "content": "Write a Python function to implement binary search"}
    ]
)

Dostępne warianty codex: gpt-5-codex, gpt-5-codex-high, gpt-5-codex-medium, gpt-5-codex-low, gpt-5.2-codex

Dobre praktyki#

  1. Wybierz odpowiedni model: używaj gpt-5-nano do prostych zadań, gpt-5.2 do zadań złożonych
  2. Ustaw odpowiednią temperaturę: niższą (0.1–0.3) dla zadań faktograficznych, wyższą (0.7–1.0) dla zadań kreatywnych
  3. Korzystaj ze strumieniowania: dla lepszego doświadczenia użytkownika w aplikacjach czatowych
  4. Obsługuj błędy w elegancki sposób: zaimplementuj logikę ponawiania przy limitach szybkości

Kolejne kroki#


W razie pytań skontaktuj się: support@crazyrouter.com

Related Articles