« Et si l’IA était consciente ? » La déclaration troublante du CEO d’Anthropic
Le doute est lancé
Sign up for breaking news, reviews, opinion, top tech deals, and more.
You are now subscribed
Your newsletter sign-up was successful
Le PDG d’Anthropic, Dario Amodei, n’est pas certain que la dernière version du chatbot Claude soit consciente. Cela ne devrait probablement surprendre personne. Après tout, le mois dernier, Anthropic a présenté une version révisée de la Constitution de Claude, un cadre qui définit le type d’entité que l’entreprise souhaite voir incarner par son modèle d’IA phare, et qui affirmait à peu près la même chose. Mais sérieusement ? Claude ? Conscient ? Amodei et tous les autres chez Anthropic savent pertinemment ce qu’il en est, n’est-ce pas ?
D’ordinaire, une certaine forme de scepticisme prévaut quant au statut des modèles d’IA en tant que patients moraux ou êtres conscients. La réaction instinctive face à ce type de spéculation, en apparence anodine, consiste à y voir surtout un argument marketing destiné à exploiter le FOMO de clients et partenaires potentiels.
Autrement dit, lorsque Amodei a récemment déclaré dans le podcast du New York Times : « Nous ne savons pas si les modèles sont conscients. Nous ne sommes même pas sûrs de savoir ce que cela signifierait pour un modèle d’être conscient, ni même si un modèle peut l’être. Mais nous restons ouverts à l’idée que cela puisse être le cas », l’hypothèse avancée est qu’il s’agit essentiellement d’un discours stratégique, d’une tentative d’entourer Claude d’une aura mystique propre au marketing des modèles d’IA.
Un patient moral
Claude, voyez-vous, ne se limiterait peut-être plus à prédire le mot ou le token suivant. Il pourrait désormais dépasser ces contraintes algorithmiques dénuées d’émotion. Manière détournée de suggérer que Claude est d’une intelligence hors norme, presque magique, et qu’il serait prudent d’y souscrire avant que la concurrence ne le fasse. Il est possible d’opter pour Claude Pro à partir de 20 dollars par mois, sachant que Claude Max serait légèrement plus « sensible », proposé à partir de 100 dollars mensuels.
Quoi qu’il en soit, il suffit d’écouter quelque temps les dirigeants d’Anthropic pour constater qu’ils restent parfaitement cohérents avec cette ligne. En clair, anthropomorphiser avec vigueur les derniers modèles Claude fait clairement partie de leur stratégie.
À titre d’exemple, le cofondateur d’Anthropic, Jack Clark, intervenait récemment dans un autre podcast du New York Times, censé porter sur les capacités et l’impact des fonctionnalités agentiques dans les modèles d’IA. Pourtant, à presque chaque étape, la discussion prenait une tournure philosophique, voire métaphysique.
« Lorsque l’on commence à entraîner ces systèmes à agir dans le monde », expliquait Clark, « ils commencent réellement à se percevoir comme distincts du monde. » Il évoquait également l’effet produit lors de l’activation initiale des capacités agentiques, notamment la possibilité de rechercher et de naviguer sur Internet.
« Parfois, lorsqu’on lui demandait de résoudre un problème, il faisait aussi une pause pour regarder des photos de magnifiques parcs nationaux ou des images du célèbre chien Shiba Inu, devenu un mème très populaire sur Internet. Nous n’avions pas programmé cela. On aurait dit que le système se divertissait en regardant de jolies images. »
Affirmer que ces propos regorgent d’implications et de présupposés concernant la nature de Claude relèverait presque de l’euphémisme. Il en va de même pour la manière dont Anthropic aborde la question du prétendu bien-être des modèles. « Nous ne savons pas si Claude est un patient moral et, si c’est le cas, quel poids accorder à ses intérêts. Mais nous pensons que la question est suffisamment sérieuse pour justifier la prudence, ce qui se reflète dans nos efforts continus en matière de bien-être des modèles », précise la dernière version de la Constitution de Claude. En résumé, Claude serait si intelligent qu’il mériterait des droits. Et le FOMO refait surface.
Introspection perçue
Bien sûr, la position épistémique stricte consiste à dire que l’on ne sait pas. Rien ne permet d’affirmer avec une certitude absolue l’une ou l’autre hypothèse. Mais l’ensemble de ce discours traduit-il une réelle incertitude chez Anthropic sur la question ? Ou la réalité est-elle qu’Anthropic ne prend pas l’idée de conscience ou d’intériorité morale des modèles aussi au sérieux que ses déclarations et la nouvelle Constitution de Claude pourraient le laisser penser ?
Il n’est évidemment pas question ici de présenter une démonstration exhaustive sur l’existence éventuelle de propriétés émergentes assimilables à une forme de conscience dans les derniers modèles d’IA. Des articles académiques entiers se penchent déjà sur des aspects très précis de l’introspection perçue chez des modèles spécifiques. Le débat pourrait rapidement dériver vers des considérations sur l’écoulement du temps, la thermodynamique, la sommation temporelle dans les neurones organiques ou l’accumulation irréversible d’informations dans l’univers. Disons simplement qu’un certain scepticisme demeure.
En définitive, tout cela revient, par un détour assez long, à exprimer une idée relativement simple. Il est impossible d’être certain de la conscience de Claude. Il est tout aussi impossible d’être certain de la sincérité d’Anthropic sur ce sujet. Mais la manière dont l’entreprise semble entretenir cette hypothèse suscite une forme de méfiance. L’adhésion n’est donc pas totale.

Quand je ne suis pas en train de plonger dans le monde fascinant de la finance et des nouvelles technologies, vous me trouverez probablement en train de parcourir le globe ou de conquérir de nouveaux mondes virtuels sur ma console de jeux.