Hacker usano deepfake AI per ingannare videochiamate iOS con jailbreak

Jailbroken iOS 15
(Immagine:: iOS Hacker)

  • Gli attacchi di iniezione deepfake aggirano le telecamere e ingannano direttamente i software di verifica video
  • I face swap e le ricostruzioni di movimento trasformano le immagini rubate in deepfake convincenti
  • I servizi di rilevamento gestiti possono identificare pattern sospetti prima che gli attacchi abbiano successo

Le piattaforme di comunicazione digitale sono sempre più vulnerabili agli attacchi sofisticati che sfruttano l'intelligenza artificiale avanzata.

Un rapporto di iProov rivela uno strumento specializzato capace di iniettare deepfake generati dall'AI direttamente nelle videochiamate iOS, sollevando preoccupazioni sull'affidabilità delle misure di sicurezza esistenti.

La scoperta rivela quanto rapidamente gli strumenti AI vengono adattati per frodi e furti di identità, mentre espone lacune nei sistemi di verifica attuali.

Un metodo sofisticato per aggirare la verifica

Lo strumento di iniezione video iOS, sospettato di avere origini cinesi, prende di mira dispositivi iOS 15 e successivi con jailbreak.

Gli attaccanti collegano un iPhone compromesso a un server remoto, aggirano la sua fotocamera fisica e iniettano flussi video sintetici nelle chiamate attive.

Questo approccio consente ai truffatori di impersonare utenti legittimi o costruire identità completamente fabbricate che possono superare controlli di sicurezza deboli.

Utilizzando tecniche come scambi di volti e ricostruzioni di movimento, il metodo trasforma immagini rubate o foto statiche in video realistici.

Questo sposta le frodi di identità da incidenti isolati a operazioni su scala industriale.

L'attacco mina anche i processi di verifica sfruttando vulnerabilità a livello del sistema operativo piuttosto che controlli basati sulla fotocamera.

I truffatori non hanno più bisogno di ingannare l'obiettivo, possono ingannare direttamente il software.

Questo rende i sistemi anti-spoofing tradizionali, specialmente quelli privi di protezioni biometriche, meno efficaci.

"La scoperta di questo strumento iOS segna una svolta nelle frodi di identità e conferma la tendenza degli attacchi industrializzati", ha dichiarato Andrew Newell, Chief Scientific Officer di iProov.

"L'origine sospetta dello strumento è particolarmente preoccupante e dimostra che è essenziale utilizzare una capacità di rilevamento della vivacità che possa adattarsi rapidamente."

"Per combattere queste minacce avanzate, le organizzazioni necessitano di controlli di cybersicurezza multistrato informati da intelligence sulle minacce del mondo reale, combinati con biometria basata sulla scienza e una capacità di rilevamento della vivacità che possa adattarsi rapidamente per garantire che un utente sia la persona giusta, una persona reale, che si autentica in tempo reale."

Come rimanere al sicuro

  • • Conferma la persona giusta confrontando l'identità presentata con registri o database ufficiali attendibili.
  • • Verifica una persona reale utilizzando immagini incorporate e metadati per rilevare media dannosi o sintetici.
  • • Assicurati che la verifica sia in tempo reale con metodi passivi di sfida-risposta per prevenire attacchi di riproduzione o ritardati.
  • • Distribuisci servizi di rilevamento gestiti che combinano tecnologie avanzate con competenze umane per il monitoraggio attivo.
  • • Rispondi rapidamente agli incidenti utilizzando competenze specializzate per decodificare gli attacchi e rafforzare le difese future.
  • • Incorpora controlli biometrici avanzati informati dall'intelligence attiva sulle minacce per migliorare il rilevamento e la prevenzione delle frodi.
  • • Installa i migliori software antivirus per bloccare malware che potrebbero consentire compromissioni o sfruttamenti del dispositivo.
  • • Mantieni una forte protezione Ransomware per proteggere i dati sensibili da attacchi informatici secondari o di supporto.
  • • Rimani informato sugli strumenti AI in evoluzione per anticipare e adattarsi ai metodi emergenti di iniezione deepfake.
  • • Preparati per scenari in cui la sola verifica video non può garantire sicurezza contro frodi di identità sofisticate.

Potrebbe interessarti anche

Efosa Udinmwen
Freelance Journalist

Efosa has been writing about technology for over 7 years, initially driven by curiosity but now fueled by a strong passion for the field. He holds both a Master's and a PhD in sciences, which provided him with a solid foundation in analytical thinking.