GPT-5 : moins d’hallucinations, plus de raisonnement et une communauté partagée

  • 5 min
GPT-5 : moins d’hallucinations, plus de raisonnement et une communauté partagée
OpenAI GPT-5, entre enthousiasme et inquiétudes

Vous venez de voir passer la nouvelle partout : OpenAI a lancé GPT-5. Le modèle devient par défaut dans ChatGPT, bouscule l’API, et revendique moins d’hallucinations, plus de raisonnement et des prix agressifs. J’ai tout décortiqué pour vous. Côté nouveautés, accueil réel de la communauté, et les espoirs / craintes que ça soulève.

Première claque, la philosophie. OpenAI ne vous demande plus de “choisir le bon modèle” : ChatGPT transfère automatiquement votre requête vers le bon modèle et décide combien de temps ”penser” avant de répondre. Sur le papier, vous avez un copilote qui sait quand aller vite et quand creuser. C’est exactement ce qui a été annoncé : un routeur temps réel et un modèle unique qui alterne vitesse et « thinking » selon la tâche.

Côté perfs et pratique, GPT-5 débarque aussi dans l’API en trois tailles (gpt-5, gpt-5-mini, gpt-5-nano) avec contrôle de la verbosité, le tout à un tarif qui a fait tousser la concurrence : 1,25 $ / million de tokens en entrée et 10 $ / million en sortie pour le modèle principal. Oui, vous avez bien lu. Même structure déclinée pour mini et nano.

Dans ChatGPT, l’expérience bouge aussi : nouvelles “personnalités” prêtes à l’emploi (Cynic, Robot, Listener, Nerd), meilleure voix, et un grand ménage dans le sélecteur de modèles… qui disparaît. GPT-5 devient le défaut et le reste est routé automatiquement. Sur le papier c’est plus simple, mais dans la vraie vie… on y vient.

Sous le capot, OpenAI annonce moins d’hallucinations et des progrès nets en code (front complexe, débogage de gros repositories) et en tâches “expertes”. On reste prudents, mais c’est bien la promesse officielle, avec un contexte qui grimpe jusqu’à 400 k tokens sur la gamme GPT-5. (OpenAI)

Évidemment, la sécurité et l’éthique sont le nerf de la guerre. OpenAI publie un “system card” et un billet sur les « safe completions » (réduction de la tromperie, meilleures refusals ciblées). De son côté, l’équipe d’évaluateurs indépendants METR a eu un accès anticipé et conclut que GPT-5 ne présente pas, en l’état, de risques catastrophiques selon trois scénarios de menace — tout en précisant ce qu’ils n’ont pas évalué (alignement, usages sociétaux, etc.). C’est bien de la nuance, pas du marketing.

Maintenant, la réalité du terrain : le lancement a été chahuté. La suppression du sélecteur de modèles a crispé les power users, et GPT-4o a été rétabli en option pour calmer la grogne — certains trouvaient GPT-5 moins chaleureux ou moins “vibe”. Même Sam Altman a reconnu un déploiement « bumpy » lié au routeur qui ne faisait pas correctement son job au début. Oui, ça pique.

Côté développeurs et boîtes, il y a de quoi se réjouir : un prix qui peut déclencher une vraie guerre tarifaire et des tailles mini/nano qui rendent le raisonnement accessible dans plus d’apps sans exploser la facture. Si vous codiez déjà sur GPT-4.1 ou o-series, le rapport qualité/prix de GPT-5 change clairement la donne.

Mais je ne vais pas vous raconter de fable : tout n’est pas rose, surtout pour nous en Europe. Les “connectors” (Gmail, Calendar, Drive, etc.) qui transforment ChatGPT en demi-agent posent des questions lourdes de vie privée et ne sont pas tous disponibles dans l’EEE/CH/UK. Et même quand c’est dispo, OpenAI rappelle noir sur blanc les risques (accès à des données sensibles, prompt-injection possible). Voilà exactement le genre de fonctionnalités que je vous conseille d’activer à minima et de cadrer côté admin/compliance.

Et il y a eu un couac de plus la semaine précédente : la découverte de partages publics indexés par Google, qui a poussé OpenAI à couper la découvrabilité des chats partagés. Même si c’était “opt-in”, le design a clairement manqué de friction. Quand on joue avec vos données, on n’a pas droit à l’erreur — et vous me connaissez, sur la vie privée, je ne pardonne pas.

Alors, où en est-on concrètement ? Vous avez un modèle plus malin et moins cher, un ChatGPT qui essaye de faire le tri pour vous, et des ambitions d’agent qui prennent (enfin) forme. Vous avez aussi un lancement secoué, une communauté divisée entre “c’est bluffant” et “rendez-nous 4o”, et surtout des chantiers de transparence/contrôle des données qui restent cruciaux si on ne veut pas transformer nos boîtes mail en open bar algorithmique.

Mon pari pour la suite : à court terme, GPT-5 va s’imposer pour le code, la génération d’apps et le “deep research” cadré. À moyen terme, l’agent + connecteurs va devenir l’enjeu — pas technique, mais de gouvernance : qui voit quoi, combien de temps, avec quelles limites et quelles preuves d’audit ? Tant qu’on n’a pas des garanties béton (résidence des données, scopes stricts, logs signables, politiques de rétention maîtrisées), vous pouvez me compter dans le camp des casse-pieds qui demandent des garde-fous — et fiers de l’être.

Comme toujours, allez lire la source principale et les docs techniques avant d’intégrer quoi que ce soit en prod. OpenAI détaille les modèles, les prix, les limites et la sécurité ; prenez le temps de tout passer en revue.

Note vie privée : regardez aussi les pages “Connectors” et “Enterprise privacy” pour savoir exactement ce qui transite et ce qui ne transite pas.