
Comment accéder à GPT-5 et GPT-5.2 via l’API - Guide complet pour les développeurs
OpenAI a publié ses modèles les plus puissants à ce jour : GPT-5, GPT-5.2, et le modèle orienté raisonnement o3-pro. Ce guide vous montre comment accéder à ces modèles de pointe via l’API unifiée de Crazyrouter.
Modèles OpenAI pris en charge#
Crazyrouter donne accès à l’ensemble de la gamme de modèles OpenAI :
| Model | Input ($/1M tokens) | Output ($/1M tokens) | Best For |
|---|---|---|---|
| gpt-5.2 | $1.75 | $14.00 | Latest flagship, complex tasks |
| gpt-5.2-pro | $3.50 | $28.00 | Enhanced reasoning |
| gpt-5 | $1.25 | $10.00 | General tasks |
| gpt-5-pro | $2.50 | $20.00 | Advanced analysis |
| gpt-5-mini | $0.25 | $2.00 | Cost-effective |
| gpt-5-nano | $0.05 | $0.40 | High-volume tasks |
| o3-pro | $20.00 | $80.00 | Complex reasoning |
| o3-mini | $1.10 | $4.40 | Efficient reasoning |
| o4-mini | $1.10 | $4.40 | Latest reasoning model |
Démarrage rapide#
1. Obtenez votre clé d’API#
- Rendez-vous sur la Console Crazyrouter
- Allez dans « Token Management »
- Cliquez sur « Create Token »
- Copiez votre clé d’API (commence par
sk-)
2. Faites votre première requête#
Avec Python (recommandé)#
from openai import OpenAI
client = OpenAI(
api_key="sk-your-api-key",
base_url="https://crazyrouter.com/v1",
default_headers={
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36"
}
)
response = client.chat.completions.create(
model="gpt-5.2",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain quantum computing in simple terms."}
],
temperature=0.7,
max_tokens=1000
)
print(response.choices[0].message.content)
Avec Node.js#
import OpenAI from 'openai';
const client = new OpenAI({
apiKey: 'sk-your-api-key',
baseURL: 'https://crazyrouter.com/v1',
defaultHeaders: {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36'
}
});
async function main() {
const response = await client.chat.completions.create({
model: 'gpt-5.2',
messages: [
{ role: 'system', content: 'You are a helpful assistant.' },
{ role: 'user', content: 'Explain quantum computing in simple terms.' }
],
temperature: 0.7
});
console.log(response.choices[0].message.content);
}
main();
Avec curl#
curl https://crazyrouter.com/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer sk-your-api-key" \
-H "User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36" \
-d '{
"model": "gpt-5.2",
"messages": [{"role": "user", "content": "Hello, GPT-5.2!"}],
"temperature": 0.7
}'
Réponses en streaming#
Pour une sortie en temps réel, activez le streaming :
from openai import OpenAI
client = OpenAI(
api_key="sk-your-api-key",
base_url="https://crazyrouter.com/v1",
default_headers={
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36"
}
)
stream = client.chat.completions.create(
model="gpt-5.2",
messages=[{"role": "user", "content": "Write a short story about AI."}],
stream=True
)
for chunk in stream:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="", flush=True)
Utilisation des modèles de raisonnement (o3-pro)#
Le modèle o3-pro excelle dans les tâches de raisonnement complexes :
response = client.chat.completions.create(
model="o3-pro",
messages=[
{"role": "user", "content": "Solve this step by step: If a train travels 120 miles in 2 hours, then stops for 30 minutes, then travels another 90 miles in 1.5 hours, what is the average speed for the entire journey including the stop?"}
]
)
print(response.choices[0].message.content)
Modèles GPT-5 Codex#
Pour les tâches de génération de code, utilisez les modèles codex spécialisés :
response = client.chat.completions.create(
model="gpt-5-codex",
messages=[
{"role": "user", "content": "Write a Python function to implement binary search"}
]
)
Variantes codex disponibles : gpt-5-codex, gpt-5-codex-high, gpt-5-codex-medium, gpt-5-codex-low, gpt-5.2-codex
Bonnes pratiques#
- Choisissez le bon modèle : utilisez gpt-5-nano pour les tâches simples, gpt-5.2 pour les tâches complexes
- Définissez une température appropriée : plus faible (0,1–0,3) pour les tâches factuelles, plus élevée (0,7–1,0) pour les tâches créatives
- Utilisez le streaming : pour une meilleure expérience utilisateur dans les applications de chat
- Gérez les erreurs avec soin : implémentez une logique de nouvelle tentative en cas de limites de taux
Prochaines étapes#
- Consultez la tarification des modèles pour les coûts détaillés
- Lisez la documentation de l’API pour les fonctionnalités avancées
- Rejoignez notre communauté Discord pour obtenir de l’aide
Pour toute question, contactez support@crazyrouter.com


