Tout le monde veut son "starter pack", un cauchemar pour la vie privée, un régal pour les IA

Figurine de Lance Ulanoff à côté du logo Grok 3 affiché sur un smartphone avec un logo ChatGPT en arrière-plan
(Crédit photo: Future + Photo Illustration by Avishek Das/SOPA Images/LightRocket via Getty Images)

Juste après que la tendance des images générées par IA de style Ghibli ait commencé à s'estomper, ChatGPT et d'autres outils similaires ont trouvé un nouveau moyen d'encourager les gens à télécharger leurs selfies dans leur système, cette fois pour créer une version figurine d'eux-mêmes.

Le principe est toujours le même. Une photo et quelques instructions suffisent au générateur d'images par IA pour vous transformer en poupée Barbie avec des accessoires liés à votre travail ou à vos centres d'intérêt juste à côté de vous. La dernière étape ? Partager les résultats sur vos réseaux sociaux, bien sûr.

Mais cette déferlante de photos de poupées IA a de quoi inquiéter. Des millions de personnes ont accepté de partager volontairement leur visage associé à des informations personnelles simplement pour prendre le train en marche des réseaux sociaux, sans probablement penser aux risques d'atteinte à la vie privée et à la sécurité que cela comporte.

Les poupées IA ou comment contourner le respect de la vie privée

Commençons par l'évidence : la vie privée.

Les tendances "Starter pack" et "Studio Ghbli AI" ont incité davantage de personnes à alimenter la base de données d'OpenAI, Grok et d'autres outils similaires avec leurs photos. Beaucoup d'entre elles n'avaient peut-être jamais utilisé de logiciel de LLM auparavant. Beaucoup trop de familles ont téléchargé les visages de leurs enfants pour obtenir la dernière image virale au cours des deux dernières semaines.

Les modèles d'IA sont connus pour récupérer des informations et des images sur le web. Beaucoup ont donc probablement pensé : en quoi est-ce différent du partage d'un selfie sur ma page Instagram ?

Il y a cependant un hic. En téléchargeant volontairement vos photos avec un logiciel de génération d'IA, vous donnez au fournisseur du service plus de moyens d'utiliser légalement ces informations ou, mieux encore, votre visage.

En tant que cofondatrice de l'AI, Tech & Privacy Academy, Luiza Jarovsky expliquait alors que la tendance Ghibli venait d'exploser "qu'en partageant volontairement des informations, vous donnez à OpenAI le consentement de les traiter, contournant de facto la protection RGPD basée sur l'intérêt légitime".

En d'autres termes, grâce à ce que Luisa Jarovsky décrit comme une « astuce intelligente en matière de confidentialité », les bibliothèques de LLM ont réussi à introduire une vague de nouvelles images dans leurs systèmes pour les utiliser.

On pourrait dire que cela a si bien fonctionné qu'ils ont décidé de recommencer et de placer la barre plus haut.

Perdre le contrôle – et pas seulement de son visage

Pour créer votre "action doll" personnelle, votre visage ne suffit pas. Vous devez partager certaines informations vous concernant pour générer le package complet. Plus il y a de détails, plus la ressemblance avec votre vrai vous est grande.

Ainsi, les gens ne donnent pas seulement leur consentement aux entreprises d'IA pour qu'elles utilisent leur visage, mais aussi une quantité considérable d'informations personnelles que le logiciel ne pourrait pas collecter autrement.

Comme le souligne Eamonn Maguire, responsable de la sécurité des comptes chez Proton (le fournisseur de l'un des meilleurs VPN du marché), le partage d'informations personnelles « ouvre une boîte de Pandore ».

En effet, vous perdez le contrôle de vos données et, surtout, de la manière dont elles seront utilisées. Que ce soit pour former des LLM, générer du contenu, personnaliser des publicités ou autre, vous n'aurez pas votre mot à dire.

« Les profils personnels et comportementaux très détaillés que des outils tels que ChatGPT peuvent créer à partir de ces informations pourraient influencer des aspects essentiels de votre vie, notamment la couverture d'assurance, les conditions de prêt, la surveillance, le profilage, la collecte de renseignements ou les attaques ciblées », m'a expliqué M. Maguire.

La confidentialité liée à la manière dont OpenAI, Google et X utiliseront ou détourneront ces données n'est qu'un aspect du problème. Ces outils d'IA pourraient également devenir un piège à pirates.

En règle générale, plus la quantité de données est importante, plus le risque de violation des données est élevé - et les entreprises d'IA ne sont pas toujours prudentes lorsqu'il s'agit de sécuriser les données de leurs utilisateurs.

À ce sujet, Eamonn Maguire explique que « DeepSeek a connu une faille de sécurité importante lorsque sa base de données d'invites utilisateur est devenue accessible au public sur Internet. OpenAI a également connu un problème de sécurité lorsqu'une vulnérabilité dans une bibliothèque tierce qu'ils utilisaient a conduit à l'exposition de données sensibles des utilisateurs, notamment des noms, des adresses e-mail et des informations de carte de crédit. »

Cela signifie que des criminels pourraient exploiter les visages et les informations personnelles partagées par les gens pour créer leur figurine à des fins malveillantes, notamment pour la propagande politique, le vol d'identité, la fraude et les escroqueries en ligne.

Faut-il le faire malgré tout ?

S'il est de plus en plus difficile d'éviter de partager des informations personnelles en ligne et de rester anonyme, ces tendances virales de l'IA nous indiquent que la plupart des gens ne tiennent peut-être pas suffisamment compte des implications en matière de confidentialité et de sécurité.

Peu importe si l'utilisation d'applications de messagerie cryptées comme Signal continue d'augmenter parallèlement à l'utilisation de logiciels de réseau privé virtuel (VPN), pour beaucoup il semble plus urgent de suivre la dernière tendance virale sur les réseaux sociaux.

Les entreprises d'IA connaissent bien cette dynamique et ont appris à l'utiliser à leur avantage pour attirer plus d'utilisateurs, pour obtenir plus d'images et de données.

Il est juste de dire que le boom des figurines de style Ghibli et des figurines d'action n'est que le début d'une nouvelle frontière pour l'IA générative et sa menace pour la vie privée. Je suis sûr que d'autres de ces tendances vont imploser parmi les utilisateurs des médias sociaux dans les prochains mois.

Comme le souligne Eamonn Maguire de Proton, la quantité de puissance et de données qui s'accumulent entre les mains de quelques entreprises d'IA est particulièrement préoccupante : « Il faut que ça change, avant qu'il ne soit trop tard ».

TOPICS
Chiara Castro
News Editor (Tech Software)

Chiara is a multimedia journalist committed to covering stories to help promote the rights and denounce the abuses of the digital side of life – wherever cybersecurity, markets, and politics tangle up. She believes an open, uncensored, and private internet is a basic human need and wants to use her knowledge of VPNs to help readers take back control. She writes news, interviews, and analysis on data privacy, online censorship, digital rights, tech policies, and security software, with a special focus on VPNs, for TechRadar and TechRadar Pro. Got a story, tip-off, or something tech-interesting to say? Reach out to chiara.castro@futurenet.com

Avec la contribution de