ChatGPT n’utilise pas une seule IA, et vous ne le voyez même pas
Un système bien plus opaque
Inscrivez-vous pour recevoir les dernières nouvelles, les critiques, les opinions, les meilleures offres technologiques et bien plus encore.
You are now subscribed
Your newsletter sign-up was successful
Join the club
Get full access to premium articles, exclusive features and a growing list of member rewards.
- ChatGPT utilise désormais un sélecteur de modèles simplifié capable de basculer automatiquement entre différents modèles d’IA
- Les utilisateurs peuvent ne pas se rendre compte que différents prompts peuvent déclencher différents modèles sous-jacents
- Des modèles supplémentaires et des paramètres de contrôle sont dissimulés dans les réglages, que la plupart des utilisateurs n’ouvrent jamais
Rassurez-vous, rien d’anormal : le sélecteur de modèles de ChatGPT (situé en haut de l’écran) paraît simplement plus épuré cette semaine, avec moins de noms de modèles encombrant l’interface.
Les appellations comme 5.4, 4o ou o3 appartiennent désormais au passé. Les abonnés ChatGPT Plus ne voient plus que trois options : Instant, Réflexion et Pro. Pourtant, cette apparente simplification ne correspond pas exactement à une transparence accrue.
La mise à jour transforme le choix d’un modèle précis en une demande plus générale de style ou de mode de fonctionnement. Le modèle réellement utilisé pour générer une réponse est désormais plus souvent déterminé par ChatGPT lui-même, en fonction de la complexité du prompt et d’autres paramètres.
Ces éléments influencent le recours à un modèle plus rapide et léger ou à un grand modèle de langage plus puissant et plus coûteux en ressources. Il est même possible que l’utilisateur ne sache pas lequel a traité sa demande.
Le contrôle de ChatGPT s’éloigne ainsi légèrement de l’utilisateur. Auparavant, sélectionner un modèle signifiait précisément cela. Désormais, choisir l’un des trois modes peut correspondre à différents modèles internes, selon divers facteurs.
Une réponse peut apparaître presque instantanément sous une forme courte et conversationnelle. À l’inverse, une pause peut précéder une réponse plus longue et structurée. Cette différence ne relève pas seulement du ton : elle reflète l’effort computationnel que le système a décidé d’allouer.
Changement de modèle
Ce changement n’est pas arbitraire : il répond à un problème concret. Les modèles d’IA les plus avancés sont puissants, mais également plus lents et plus coûteux à exécuter. Les utiliser pour chaque requête rendrait l’expérience plus lente et plus onéreuse.
En alternant les modèles, OpenAI peut offrir une expérience à la fois rapide et performante.
En revanche, cela rend les résultats moins prévisibles. Deux personnes utilisant ChatGPT au même moment ne travaillent pas nécessairement avec le même système sous-jacent, même si leur interface semble identique.
L’une peut être dirigée vers un modèle plus léger, l’autre vers un modèle plus lourd, selon de subtiles différences dans leurs prompts ou leurs habitudes d’utilisation. L’expérience peut ainsi varier d’une manière difficile à percevoir de l’extérieur.
Il est même possible que l’ensemble des modèles disponibles ne soit plus visible. Ils ont été déplacés dans le menu de configuration, dissimulés dans des paramètres rarement consultés.
C’est dans ce menu que les anciens modèles restent accessibles et que la bascule automatique peut être désactivée. Il est également possible d’ajuster le niveau d’effort appliqué par le système lors du raisonnement.
Reprendre le contrôle
Pour un usage occasionnel, cela importe probablement peu. L’expérience paraît plus fluide : une question est posée, une réponse arrive, et cela fonctionne généralement. Le système gère les détails.
Pour les utilisateurs plus attentifs, ce changement peut sembler légèrement déroutant. Si ChatGPT paraît soudain moins détaillé ou plus hésitant, il se peut qu’un autre modèle ait été utilisé sans notification explicite. Dans certains cas, des limites d’utilisation peuvent provoquer ce type de bascule, réduisant discrètement le niveau de raisonnement appliqué.
Cela crée un léger décalage entre les attentes et la réalité. Beaucoup pensent interagir avec une intelligence unique et cohérente. En réalité, l’interaction se fait avec un système flexible qui s’ajuste en permanence.
Cette approche fonctionne parce qu’elle supprime les frictions. La plupart des utilisateurs ne souhaitent pas gérer des paramètres ou comprendre les nuances entre différents modèles. Ils veulent un résultat. Toutefois, ne plus choisir directement le modèle implique aussi de renoncer à une partie du contrôle sur la manière dont la réponse est générée. Pour des questions simples, cela n’a guère d’importance. En revanche, cela peut compter lorsque la précision ou la profondeur deviennent essentielles.
Pour s’assurer du modèle utilisé, il convient d’ouvrir le menu du sélecteur de modèles puis d’accéder aux paramètres de configuration. Un sélecteur de modèle y est disponible.
La prochaine phase de l’IA ne consistera peut-être pas à choisir le modèle le plus performant, mais à comprendre quand et pourquoi le système choisit à la place de l’utilisateur. Et pour reprendre le contrôle, la solution se trouve dans un menu de paramètres que la plupart n’ouvrent jamais.

Quand je ne suis pas en train de plonger dans le monde fascinant de la finance et des nouvelles technologies, vous me trouverez probablement en train de parcourir le globe ou de conquérir de nouveaux mondes virtuels sur ma console de jeux.
- Eric Hal SchwartzContributor