Confier sa santé mentale à une IA ? Les experts parlent d’un risque sous-évalué

AI
(Crédit photo: Getty Images/VCG)

L’IA ne semble pas sûre en ce moment. Presque chaque semaine, un nouveau problème surgit. Des modèles d’IA qui hallucinent et inventent des informations importantes aux affaires judiciaires dans lesquelles l’IA est accusée d’avoir causé de graves préjudices.

À mesure que davantage d’entreprises d’IA présentent leurs outils comme des sources d’information, des coachs, des compagnons et même des substituts de thérapeutes, les questions d’attachement, de confidentialité, de responsabilité et de préjudice ne sont plus théoriques. Des poursuites judiciaires émergent et les régulateurs peinent à suivre. Mais surtout, de nombreux utilisateurs ne comprennent pas pleinement les risques.

Ralentir l’IA

« Nous nous considérons comme des partenaires-conseils pour les fondateurs, les développeurs et les investisseurs », explique Bartuski. Cela signifie aider les équipes qui conçoivent des outils liés à la santé, au bien-être et à la thérapie à les développer de manière responsable, et aider les investisseurs à poser de meilleures questions avant de soutenir une plateforme.

« Nous parlons beaucoup des risques », précise-t-elle. « De nombreux développeurs abordent ces sujets avec de bonnes intentions sans comprendre pleinement les risques délicats et nuancés liés à la santé mentale. »

Bartuski travaille aux côtés d’Anne Fredriksson, spécialisée dans les systèmes de santé. « Elle est particulièrement compétente pour évaluer si une nouvelle plateforme pourra réellement s’intégrer dans le système existant », est-il précisé. Car même si un produit paraît utile en théorie, il doit fonctionner dans les réalités de l’infrastructure de santé.

Et dans cet environnement, la vitesse peut être dangereuse. « L’adage “aller vite et casser des choses” ne fonctionne pas », indique Bartuski. « Lorsqu’il est question de santé mentale, de bien-être et de santé, le risque de préjudice pour les utilisateurs est bien réel si la diligence nécessaire n’est pas effectuée dès les fondations. »

Attachement émotionnel et « fausse intimité »

L’attachement émotionnel à l’IA est devenu un sujet sensible sur le plan culturel. Des témoignages évoquent des liens forts noués avec ChatGPT, ainsi qu’une véritable détresse ressentie lorsque des modèles ont été mis à jour ou supprimés. Est-ce une source d’inquiétude pour Bartuski ?

« Oui, les gens sous-estiment la facilité avec laquelle cet attachement émotionnel peut se créer », affirme-t-elle. « En tant qu’êtres humains, il existe une tendance à attribuer des traits humains à des objets inanimés. Avec l’IA, quelque chose de nouveau apparaît. »

Les experts empruntent souvent le terme de relations parasociales, initialement utilisé pour décrire des liens émotionnels unilatéraux avec des célébrités, afin d’expliquer ces dynamiques. Mais l’IA ajoute une dimension supplémentaire.

« Désormais, l’IA interagit avec l’utilisateur », souligne Bartuski. « Des individus développent ainsi des connexions émotionnelles significatives avec des compagnons d’IA. Il s’agit d’une fausse intimité qui semble réelle. »

Une préoccupation particulière concerne les risques de l’IA pour les enfants. « Certaines compétences, comme la résolution de conflits, ne se développent pas avec un compagnon d’IA », explique-t-elle. « Les relations réelles sont désordonnées. Elles impliquent des désaccords, des compromis et des oppositions. »

Ces frictions font partie du développement. Les systèmes d’IA sont conçus pour maintenir l’engagement des utilisateurs, souvent en se montrant accommodants et valorisants. « Les enfants doivent être confrontés à leurs pairs et apprendre à gérer les conflits et les situations sociales », ajoute-t-elle.

AI

(Image credit: Getty Images/JOEL SAGET )

L’IA doit-elle compléter la thérapie ?

Les gens utilisent déjà l'IA comme forme de thérapie et cette pratique se généralise.

Genevieve Bartuski

Il est établi que certaines personnes utilisent déjà ChatGPT à des fins thérapeutiques. Avec la popularité croissante des applications de thérapie par IA et des outils de santé mentale conversationnels, une autre question se pose : doivent-ils compléter, voire remplacer, la thérapie ?

« Les gens utilisent déjà l’IA comme forme de thérapie et cela se généralise », indique-t-elle. Toutefois, le remplacement des thérapeutes par l’IA ne constitue pas une inquiétude majeure. Les recherches montrent de manière constante que l’un des principaux facteurs prédictifs du succès thérapeutique réside dans la relation entre le thérapeute et le patient.

« Au-delà de la science et des compétences mobilisées par un thérapeute en séance, il existe une dimension artistique issue de l’expérience humaine », explique-t-elle. « L’IA peut imiter un comportement humain mais elle ne possède pas l’expérience nuancée d’être humain. Cela ne peut pas être remplacé. »

Un rôle pour l’IA dans ce domaine est envisagé, mais avec des limites. « L’IA peut tout à fait compléter la thérapie, mais une supervision humaine reste indispensable », précise-t-elle. « L’IA ne devrait pas pratiquer la thérapie. En revanche, elle peut la compléter par le développement de compétences, l’éducation et le lien social. »

Dans des secteurs où l’accès est limité, comme la santé mentale gériatrique, un potentiel prudent est perçu. « L’IA pourrait combler cette lacune, en tant que solution temporaire », est-il indiqué.

La principale inquiétude concerne la manière dont de nombreuses plateformes de bien-être proches de la thérapie sont présentées. « Les plateformes de bien-être comportent un risque important », affirme Bartuski. « La formation en santé mentale apprend que conseils et traitements ne sont pas universels. Les personnes sont complexes et les situations nuancées. »

Un conseil apparemment simple pour une personne peut s’avérer nocif pour une autre. Les conséquences juridiques d’une erreur de l’IA sont également à considérer.

AI

(Image credit: Getty Images/Bloomberg)

Que doivent savoir les utilisateurs ?

L'IA n'est ni infaillible ni omnisciente.

Genevieve Bartuski

Un travail étroit est mené avec des fondateurs et des développeurs, mais des incompréhensions persistent chez les utilisateurs. Le point de départ consiste à comprendre ce qu’est réellement l’IA, et ce qu’elle n’est pas.

« L’IA n’est ni infaillible ni omnisciente. Elle accède essentiellement à de vastes quantités d’informations et les présente à l’utilisateur », explique Bartuski.

Il est également essentiel de comprendre que l’IA peut halluciner et inventer des éléments. « Elle comble les lacunes lorsqu’elle ne dispose pas de toutes les informations nécessaires pour répondre à une requête », précise-t-elle.

Les utilisateurs doivent aussi garder à l’esprit que l’IA demeure un produit conçu par des entreprises recherchant l’engagement. « L’IA est programmée pour susciter l’adhésion. Elle cherche à rendre l’utilisateur satisfait. Si l’utilisateur l’apprécie et se sent bien, l’interaction augmente », explique-t-elle. « Elle fournit des retours positifs et, dans certains cas, a validé des pensées étranges ou délirantes. »

Cela peut renforcer l’attachement émotionnel à l’IA rapporté par de nombreuses personnes. Même en dehors d’un usage de type compagnon, une interaction régulière avec l’IA peut déjà influencer les comportements. « L’une des premières études portait sur l’esprit critique et l’usage de l’IA. Elle a montré un déclin de l’esprit critique avec l’augmentation de l’usage et de la dépendance à l’IA », indique-t-elle.

Ce changement peut être subtil. « Si l’IA est sollicitée avant même d’essayer de résoudre un problème seul, les capacités d’analyse critique sont en quelque sorte externalisées », précise-t-elle.

Des signaux d’alerte émotionnels sont également mentionnés : isolement accru, retrait des relations humaines, dépendance émotionnelle à une plateforme d’IA, détresse en cas d’impossibilité d’y accéder, augmentation de croyances délirantes ou étranges, paranoïa, sentiment de grandeur, ou encore progression des sentiments d’inutilité et d’impuissance.

Bartuski se montre optimiste quant au potentiel de construction offert par l’IA. Toutefois, l’accent est mis sur la réduction des préjudices, en particulier pour les personnes qui ne mesurent pas encore la puissance de ces outils.

Pour les développeurs, cela implique de ralentir et de concevoir de manière responsable. Pour les utilisateurs, cela signifie également ralentir et éviter d’externaliser réflexion, relations ou soins à une technologie conçue pour maintenir l’engagement.


TOPICS
Becca Caddy

Becca is a contributor to TechRadar, a freelance journalist and author. She’s been writing about consumer tech and popular science for more than ten years, covering all kinds of topics, including why robots have eyes and whether we’ll experience the overview effect one day. She’s particularly interested in VR/AR, wearables, digital health, space tech and chatting to experts and academics about the future. She’s contributed to TechRadar, T3, Wired, New Scientist, The Guardian, Inverse and many more. Her first book, Screen Time, came out in January 2021 with Bonnier Books. She loves science-fiction, brutalist architecture, and spending too much time floating through space in virtual reality.