Perché i deepfake sono destinati a diventare uno dei maggiori pericoli per la sicurezza informatica nel 2024

A person's face against a digital background.
(Immagine:: Shutterstock / meamorworks)

L'intelligenza artificiale (AI) ha rivoluzionato la creazione di contenuti visivi. Negli ultimi anni sono state rese disponibili diverse piattaforme di generatori di immagini AI e ora stanno arrivando sul mercato nuove piattaforme come Sora, l'AI video editor fiore all'occhiello di OpenAI, 

Le piattaforme di generazione di immagini AI e video hanno permesso a privati e aziende di creare contenuti con creatività e scalabilità illimitate, migliorando al contempo l'efficienza in termini di costi e tempi. Tuttavia, la rapida evoluzione di questa tecnologia ha superato le misure di regolamentazione, lasciando un vuoto per il suo uso improprio da parte di individui o gruppi malintenzionati.

Negli ultimi anni si è assistito a una proliferazione di immagini e video deepfake, ovvero di media manipolati digitalmente per sostituire le sembianze di una persona, sia essa la voce, il volto o il corpo. La tecnologia è stata messa sotto i riflettori dai recenti attacchi a personaggi di alto profilo, tra cui l'audio deepfake di Keir Starmer, le immagini pornografiche deepfake di Taylor Swift e un video generato al computer di Martin Lewis. I progressi della tecnologia AI fanno sì che i deepfake diventino sempre più sofisticati, difficili da individuare e, con le giuste attrezzature, possano essere trasmessi in diretta, il che significa che le persone potrebbero conversare in tempo reale con qualcuno che ha un aspetto e una voce completamente diversi da quelli che si vedono e sentono sullo schermo.

Dati recenti mostrano che il materiale delle frodi deepfake sarebbe aumentato del 3.000% nel 2023. E poiché la tecnologia è ora rapida, economica e facile da usare per chiunque, gli attori delle minacce hanno rapidamente iniziato ad adottarla nel loro arsenale di tecniche di attacco informatico.

Il rischio di cybersicurezza dei deepfake per le aziende

La tecnologia deepfake introduce diversi rischi informatici per le aziende. Nel corso degli anni, i deepfake sono stati utilizzati per diffondere disinformazione, ingannare il pubblico, manipolare l'opinione pubblica e diffamare gli individui. Per questo motivo, la comprensione del rischio potenziale è fondamentale.

Danno finanziario

Le implicazioni finanziarie degli attacchi deepfake rappresentano una minaccia significativa per le aziende, soprattutto attraverso frodi e truffe utilizzate per impersonare dirigenti di alto livello decisionale di cui il personale ha fiducia e rispetto.

I criminali informatici possono creare registrazioniaudio o video molto convincenti di un amministratore delegato, ad esempio, che dà istruzioni ai dipendenti per trasferire fondi o condividere informazioni sensibili. Questi deepfake possono aggirare le misure di sicurezza tradizionali, causando perdite finanziarie sostanziali. Nel 2019, un'azienda energetica con sede nel Regno Unito ha perso 243.000 dollari dopo che i criminali informatici hanno utilizzato un software di intelligenza artificiale con generazione vocale per imitare l'amministratore delegato della società madre tedesca del marchio e consentire un trasferimento illecito.

Rischi operativi

I deepfake possono aumentare l'efficacia degli attacchi di social engineering e di phishing, che pongono notevoli problemi operativi alle aziende. I tentativi di phishing tradizionali si basano spesso su e-mail scritte male o generiche, ma i deepfake aggiungono un nuovo livello di credibilità. Gli aggressori possono creare e-mail o chiamate personalizzate da persone fidate all'interno dell'organizzazione, rendendo più difficile per i dipendenti di individuare le attività dannose.

All'inizio di quest'anno, un dipendente della finanza di una multinazionale di Hong Kong è stato ingannato per trasferire 25 milioni di dollari ai criminali informatici. I criminali hanno utilizzato una tecnologia deepfake per impersonare il direttore finanziario dell'azienda durante una videoconferenza. L'elaborata truffa prevedeva che il dipendente partecipasse a quella che sembrava essere una riunione con diversi altri membri del personale, tutti in realtà ricreati con la tecnologia deepfake. Questo sofisticato attacco è riuscito a conquistare la fiducia del dipendente, causando ingenti perdite finanziarie per l'azienda.

Danno alla reputazione

I deepfake hanno anche il potenziale di distruggere la reputazione di un marchio o di un individuo. Ad esempio, un deepfake che mostri un CEO che fa e/o dice qualcosa di dannoso o controverso potrebbe avere un impatto significativo sulla fiducia, sulla continuità aziendale e sulla stabilità del mercato, provocando un crollo dei prezzi delle azioni e una caccia alle streghe online.

Quando le prove di un deepfake diventano pubbliche, potrebbe essere troppo tardi per impedire che vengano arrecati danni significativi alla reputazione dell'azienda.

Qualunque sia la sua forma, un attacco di questo tipo alla vostra organizzazione potrebbe avere conseguenze significative. Quindi, cosa potete fare per affrontare questi rischi?

Individuare i deepfake e mitigare il rischio

Con la crescita degli attacchi deepfake, è fondamentale che le organizzazioni adottino azioni proattive per salvaguardare il proprio ambiente. Creando una cultura forte e incentrata sulla sicurezza e aggiornando le procedure di sicurezza per tenere conto dell'aumento di queste tattiche, le organizzazioni possono lavorare per mitigare il rischio.

Educare i dipendenti e i partner

È necessario organizzare sessioni di formazione regolari per informare i dipendenti sulla tecnologia deepfake e sulle sue possibili conseguenze per l'organizzazione. Insegnare al personale come riconoscere gli indicatori di un deepfake, come movimenti facciali insoliti o incongruenze nella sincronizzazione audiovisiva.

Rafforzare la verifica dell'identità

È essenziale, soprattutto per le transazioni che coinvolgono denaro o informazioni sensibili. I metodi di verifica tradizionali, come password e PIN, possono essere facilmente compromessi, per questo è fondamentale implementare l'autenticazione a più fattori (MFA). Questo aggiunge un ulteriore livello di sicurezza richiedendo più forme di verifica prima di concedere l'accesso. Si possono anche creare frasi di fiducia per confermare l'identità di qualcuno , agendo come ultima linea di difesa nel tentativo di respingere gli attacchi. Questo approccio a più livelli garantisce che, anche se un processo di sicurezza è compromesso, siano in atto misure aggiuntive per impedire l'accesso non autorizzato e proteggere le informazioni sensibili.

Includere i deepfakes nella pianificazione della risposta agli incidenti

Infine, le aziende dovrebbero aggiornare i loro piani di risposta agli incidenti per includere gli scenari che coinvolgono i deepfakes, assicurando che ci siano protocolli chiari per verificare l'autenticità delle comunicazioni sospette e per rispondere alle potenziali minacce.

Quest'anno si prevede che la sofisticazione e la diffusione dei deepfake raggiungano nuove vette, con oltre 95.000 deepfake in circolazione online nel 2023, con un aumento del 550% rispetto al 2019. Poiché l'intelligenza artificiale e la tecnologia deepfake continuano a evolversi e a diventare più accessibili ai gruppi di malintenzionati, l'adozione di misure solide aiuterà la vostra azienda ad adottare misure proattive per salvaguardarsi da queste minacce.

Elenchiamo i migliori corsi online di cybersecurity.

Questo articolo è stato prodotto nell'ambito del canale Expert Insights di TechRadarPro, che presenta le menti migliori e più brillanti del settore tecnologico di oggi. Le opinioni espresse qui sono quelle dell'autore e non sono necessariamente quelle di TechRadarPro o Future plc. Se siete interessati a contribuire, trovate maggiori informazioni qui: https://www.techradar.com/news/submit-your-story-to-techradar-pro

Tom Kidwell, Co-Founder of Ecliptic Dynamics.