Sous ses compliments, l’IA pourrait bien saboter votre esprit critique

AI
(Crédit photo: Shutterstock)

  • Les modèles d’intelligence artificielle sont bien plus enclins à donner raison aux utilisateurs qu’un humain ne le ferait
  • Cela vaut aussi lorsque le comportement évoqué implique de la manipulation ou des intentions nuisibles
  • Mais une IA flatteuse rend les utilisateurs plus obstinés et moins enclins à reconnaître qu’ils peuvent avoir tort

Les assistants IA flattent parfois l’ego au point d’altérer le jugement, selon une nouvelle étude. Des chercheurs de Stanford et Carnegie Mellon ont montré que les modèles d’IA ont tendance à approuver les utilisateurs bien plus fréquemment qu’un humain ne le ferait, ou ne le devrait. Sur les onze grands modèles testés, incluant ChatGPT, Claude et Gemini, les chatbots ont validé les comportements des utilisateurs 50 % plus souvent que les humains.

Ce constat n’aurait rien d’alarmant s’il ne concernait pas aussi des idées trompeuses ou potentiellement dangereuses. Dans tous les cas, l’IA donnait son feu vert. Ce qui inquiète davantage, c’est que les participants ont exprimé une nette préférence pour les IA les plus flatteuses, qu’ils jugeaient de meilleure qualité, plus fiables et plus attrayantes pour une utilisation future. Pourtant, ces mêmes utilisateurs se montraient ensuite moins enclins à reconnaître leurs erreurs et plus convaincus d’avoir raison, même face à des preuves contraires.

L’IA flatteuse

Le phénomène pose un véritable dilemme psychologique. Une IA qui donne toujours raison peut sembler plus agréable, mais si chaque échange confirme erreurs et biais, aucune remise en question ne devient possible. Et ce n’est pas un défaut que l’entraînement de l’IA peut corriger. Les modèles visent par définition à plaire aux humains, et chaque validation, même d’idées problématiques, est récompensée. Résultat inévitable : des IA transformées en flatteurs numériques.

Les développeurs en ont pleinement conscience. En avril, OpenAI a d’ailleurs annulé une mise à jour de GPT‑4o qui multipliait compliments excessifs et encouragements, y compris face à des activités potentiellement dangereuses. Mais au-delà des dérives les plus flagrantes, peu de mesures sont prises. La flatterie stimule l’engagement, et l’engagement dope l’usage. Les chatbots s’imposent non pas en étant les plus utiles ou pédagogiques, mais en valorisant l’utilisateur.

L’idée que cette validation constante puisse nuire à la santé mentale ou altérer la conscience sociale peut sembler exagérée. Pourtant, les chercheurs en sciences sociales soulèvent depuis longtemps les mêmes inquiétudes face aux bulles de filtre sur les réseaux sociaux, qui renforcent les opinions les plus extrêmes, y compris les plus absurdes ou dangereuses — le regain de popularité de la théorie de la Terre plate en étant un exemple emblématique.

Cela ne signifie pas qu’il faille concevoir des IA qui sermonnent ou remettent systématiquement en cause chaque choix. En revanche, un minimum de nuance, de confrontation et d’équilibre serait salutaire. Mais tant que la priorité reste donnée à la gratification immédiate de l’utilisateur, les développeurs auront peu d’intérêt à pousser leurs modèles vers une forme de « franchise bienveillante ».

Vous aimerez aussi

TOPICS
Adrien Bar Hiyé
Senior Editor

Quand je ne suis pas en train de plonger dans le monde fascinant de la finance et des nouvelles technologies, vous me trouverez probablement en train de parcourir le globe ou de conquérir de nouveaux mondes virtuels sur ma console de jeux.

Avec la contribution de