Deepfake: solo 0,1% delle persone riconosce i contenuti falsi in un test su 2000 partecipanti
Uno studio di iProov mostra che la maggior parte delle persone fatica a distinguere i deepfake dalla realtà, evidenziando rischi crescenti di frodi e disinformazione.

Man mano che la tecnologia deepfake continua a progredire, crescono le preoccupazioni su disinformazione, frodi e furti d’identità, aggravate dal basso livello di alfabetizzazione sugli strumenti di intelligenza artificiale.
Uno studio recente condotto da iProov ha rivelato che la maggior parte delle persone fatica a distinguere i contenuti artificiali dalla realtà. Su un campione di 2.000 partecipanti provenienti da Regno Unito e Stati Uniti, esposti a un mix di immagini e video reali e generati dall’IA, solo lo 0,1% – appena due individui – è riuscito a riconoscerli correttamente.
La ricerca ha evidenziato che gli adulti più anziani sono particolarmente vulnerabili ai contenuti manipolati dall’IA. Circa il 30% delle persone tra i 55 e i 64 anni e il 39% degli over 65 non aveva mai sentito parlare di deepfake prima dello studio. Sebbene i partecipanti più giovani si siano mostrati più sicuri nella loro capacità di identificarli, i loro risultati non hanno mostrato miglioramenti significativi rispetto alle fasce d’età più avanzate.
Le generazioni più anziane sono più vulnerabili
Lo studio ha inoltre evidenziato che i video deepfake sono molto più difficili da individuare rispetto alle immagini. I partecipanti avevano il 36% di probabilità in meno di riconoscere un video falso rispetto a un'immagine, aumentando così le preoccupazioni su frodi e disinformazione basate su contenuti video.
Le piattaforme social sono state identificate come le principali fonti di contenuti deepfake. Quasi la metà degli intervistati (49%) ha indicato le piattaforme di Meta, come Facebook e Instagram, come i luoghi in cui questi contenuti sono più diffusi, mentre il 47% ha segnalato TikTok.
"Questo evidenzia quanto siano vulnerabili sia le aziende che i consumatori di fronte al rischio di frodi legate all’identità nell’era dei deepfake", ha dichiarato Andrew Bud, fondatore e CEO di iProov.
"I criminali stanno approfittando della difficoltà dei consumatori nel distinguere immagini reali da quelle contraffatte, mettendo a rischio informazioni personali e sicurezza finanziaria."
Sei un professionista? Iscriviti alla nostra Newsletter
Iscriviti alla newsletter di Techradar Pro per ricevere tutte le ultime notizie, opinioni, editoriali e guide per il successo della tua impresa!
Bud ha aggiunto che, anche quando le persone sospettano di trovarsi di fronte a un deepfake, raramente agiscono. Solo il 20% degli intervistati ha affermato che segnalerebbe un contenuto sospetto se lo incontrasse online.
Con la crescente sofisticazione dei deepfake, iProov ritiene che l’occhio umano da solo non sia più sufficiente per identificarli. Bud ha sottolineato la necessità di soluzioni di sicurezza biometrica con rilevamento di vitalità per contrastare contenuti sempre più realistici.
"La responsabilità di proteggere gli utenti spetta alle aziende tecnologiche, che devono implementare misure di sicurezza avanzate", ha affermato. "L’uso della biometria facciale con rilevamento di vitalità offre un metodo di autenticazione affidabile, mettendo al primo posto sia la sicurezza che il controllo individuale, così da permettere a utenti e organizzazioni di affrontare queste minacce in continua evoluzione."
Nato nel 1995 e cresciuto da due genitori nerd, non poteva che essere orientato fin dalla tenera età verso un mondo fatto di videogiochi e nuove tecnologie. Fin da piccolo ha sempre esplorato computer e gadget di ogni tipo, facendo crescere insieme a lui le sue passioni. Dopo aver completato gli studi, ha lavorato con diverse realtà editoriali, cercando sempre di trasmettere qualcosa in più oltre alla semplice informazione. Amante del cioccolato fondente, continua a esplorare nuove frontiere digitali, mantenendo sempre viva la sua curiosità e la sua dedizione al settore.