ChatGPT 5 ose enfin dire "je ne sais pas" – et c’est une avancée majeure

GPT-5
(Crédit photo: OpenAI)

Les modèles de langage ont toujours eu une relation compliquée avec la vérité, surtout lorsqu’ils n’ont pas de réponse fiable à donner. Les hallucinations font partie des écueils des chatbots d’IA depuis leur apparition il y a quelques années. Mais ChatGPT 5 semble adopter une nouvelle approche plus humble face à l’incertitude : reconnaître qu’il ne sait pas.

Même si la plupart des réponses fournies par ces outils sont exactes, il est presque impossible d’interagir longtemps avec un chatbot d’IA sans tomber sur une erreur partielle ou totale. Problème : l’assurance affichée est identique, qu’il s’agisse d’une vérité ou d’une pure invention. Ces hallucinations ont d’ailleurs conduit à des situations embarrassantes pour les développeurs lors de démonstrations publiques.

OpenAI avait laissé entendre que cette nouvelle version de ChatGPT serait capable de préférer l’aveu d’ignorance à l’invention d’une réponse. Un post viral de Kol Tregaskes sur X a d’ailleurs attiré l’attention sur cette évolution, montrant ChatGPT déclarer : « Je ne sais pas – et je ne peux pas le vérifier de manière fiable. »

D’un point de vue technique, les hallucinations font partie intégrante du fonctionnement de ces modèles. Contrairement aux apparences, ils ne vont pas chercher des faits dans une base de données : ils prédisent simplement le mot le plus probable à venir, en fonction des schémas de langage. Lorsqu’une question obscure ou complexe est posée, le système tente d’assembler les mots les plus plausibles, sans effectuer de recherche réelle. C’est ce mécanisme qui peut générer de fausses sources, des chiffres inventés ou des citations inexistantes.

L’arrivée dans GPT-5 d’une capacité à dire « je ne sais pas » traduit donc une évolution dans la gestion des limites de l’IA. À la place d’un remplissage fictif, on obtient une franchise assumée. Cela peut sembler banal, mais c’est un progrès significatif : cette honnêteté renforce la confiance que les utilisateurs peuvent avoir dans l’outil.

Clarté sur les hallucinations

La confiance est essentielle dans l’usage des chatbots. Pourquoi les utiliser si les réponses ne paraissent pas fiables ? Les développeurs rappellent déjà que les résultats ne doivent pas être pris pour des vérités absolues, mais nombreux sont ceux qui ignorent ces avertissements et se retrouvent piégés. Si l’IA admet simplement ne pas avoir la réponse, les informations qu’elle fournit par ailleurs pourraient gagner en crédibilité.

Il existe néanmoins un risque : certains pourraient percevoir cette transparence comme une faiblesse. Entendre « je ne sais pas » peut donner l’impression d’un bug plutôt que d’un atout, si l’on ne réalise pas que l’alternative serait une hallucination et non la vérité. L’aveu d’incertitude n’est pas l’image de l’intelligence artificielle omnisciente que beaucoup imaginaient.

Pourtant, c’est peut-être l’attitude la plus humaine qu’un chatbot puisse adopter. L’objectif d’OpenAI reste de tendre vers une intelligence artificielle générale, capable d’effectuer toute tâche intellectuelle comme un humain. Or, l’un des paradoxes de cette ambition est que penser « comme un humain », c’est aussi accepter le doute et l’inconnu.

Reconnaître que tout n’est pas su peut être la preuve d’une réelle intelligence. Refuser de l’admettre empêcherait tout apprentissage. Et, au moins, cela évite le spectacle absurde d’une IA conseillant de manger des cailloux pour rester en bonne santé.

Vous aimerez aussi

TOPICS
Adrien Bar Hiyé
Senior Editor

Quand je ne suis pas en train de plonger dans le monde fascinant de la finance et des nouvelles technologies, vous me trouverez probablement en train de parcourir le globe ou de conquérir de nouveaux mondes virtuels sur ma console de jeux.

Avec la contribution de