Truffe IA in aumento: ecco come difendersi

Who will win the AI race?
Image Credit: Geralt / Pixabay (Immagine:: Pixabay)

L'intelligenza artificiale non è una novità. Ma la rapida innovazione dell'ultimo anno significa che sia i consumatori che le aziende sono più che mai consapevoli delle capacità di questa tecnologia e, molto probabilmente, la utilizzano essi stessi in qualche forma.

La rivoluzione dell'IA ha anche un rovescio della medaglia: dà potere ai truffatori. Questo è uno degli effetti più significativi a cui stiamo assistendo, piuttosto che una maggiore produttività e creatività sul posto di lavoro. L'evoluzione dei modelli linguistici di grandi dimensioni e l'uso dell'IA generativa sta offrendo ai truffatori nuove tattiche da esplorare per i loro attacchi, che ora sono di qualità, profondità e scala tali da avere un potenziale di conseguenze sempre più disastrose.

Questo aumento del rischio è avvertito sia dai consumatori che dalle aziende. Il rapporto 2023 sull'identità e le frodi di Experian ha rilevato che poco più della metà (52%) dei consumatori britannici si sente più bersaglio di frodi online rispetto a un anno fa, mentre oltre il 50% delle aziende riferisce di essere molto preoccupato per il rischio di frode. È fondamentale che sia le aziende che i consumatori si informino sui tipi di attacco che si verificano e su cosa possono fare per combatterli.

Le nuove truffe IA

Ci sono due tendenze chiave che stanno emergendo nello spazio delle frodi AI: l'iper-personalizzazione degli attacchi e il conseguente aumento degli attacchi biometrici. L'iper-personalizzazione significa che gli ignari consumatori vengono sempre più spesso truffati da attacchi mirati che li inducono a effettuare trasferimenti istantanei e pagamenti in tempo reale.

Per le aziende, gli attacchi di compromissione delle e-mail possono ora utilizzare l'IA generativa per copiare la voce o lo stile di scrittura di una determinata azienda per fare richieste dall'aspetto più genuino, come incoraggiare a effettuare transazioni finanziarie o condividere informazioni riservate.

L'intelligenza artificiale generativa rende più facile per chiunque lanciare questi attacchi, consentendo di creare e gestire molti account e app falsi di banche, e-commerce, sanità, governo e social media che sembrano reali.

Questi attacchi sono destinati ad aumentare. Storicamente, l'intelligenza artificiale generativa non era abbastanza potente da poter essere utilizzata in scala per creare una rappresentazione credibile della voce o del volto di qualcun altro. Oggi è impossibile distinguere con l'occhio o l'orecchio umano un volto o una voce falsi da quelli autentici.

Poiché le aziende adottano sempre più livelli di controllo aggiuntivi per la verifica dell'identità, i truffatori dovranno sfruttare questo tipo di attacchi.

Attacchi da cui guardarsi le spalle

I tipi di attacco da tenere d'occhio sono i seguenti:

Imitazione di una voce umana: si è assistito a una crescita sostanziale delle voci generate dall'intelligenza artificiale che imitano persone reali. Grazie a questi schemi, i consumatori possono essere indotti a pensare di parlare con qualcuno che conoscono, mentre le aziende che utilizzano sistemi di verifica vocale per sistemi come l'assistenza clienti possono essere ingannate.

Video o immagini false: I modelli di intelligenza artificiale possono essere addestrati, utilizzando tecniche di apprendimento profondo, per utilizzare quantità molto elevate di risorse digitali come foto, immagini e video per produrre video o immagini autentici di alta qualità che sono praticamente indistinguibili da quelli reali. Una volta addestrati, i modelli di intelligenza artificiale possono fondere e sovrapporre immagini ad altre immagini e all'interno di contenuti video a una velocità allarmante.

Chatbot: I chatbot di intelligenza artificiale, amichevoli e convincenti, possono essere utilizzati per costruire relazioni con le vittime e convincerle a inviare denaro o a condividere informazioni personali. Seguendo un copione prescritto, questi chatbot possono prolungare una conversazione simile a quella umana con una vittima per lunghi periodi di tempo, per approfondire un legame emotivo.

Messaggi di testo: L'intelligenza artificiale generativa consente ai truffatori di replicare gli scambi personali con una persona conosciuta dalla vittima con copioni ben scritti che sembrano autentici. Possono quindi condurre attacchi su più fronti tramite conversazioni testuali con più vittime contemporaneamente, manipolandole per far loro compiere azioni che possono comportare trasferimenti di denaro, beni o altri guadagni fraudolenti.

Combattere l'IA imparando a capirla

Per combattere l'IA, le aziende dovranno utilizzare l'IA e altri strumenti come l'apprendimento automatico per essere sempre un passo avanti ai criminali.

I passi principali da compiere sono

Identificare le frodi con l'IA generativa: l'uso dell'IA generativa per lo screening delle transazioni fraudolente o per i controlli sul furto d'identità si sta dimostrando più preciso nell'individuare le frodi, rispetto alle precedenti generazioni di modelli di IA.

Aumentare l'uso di dati biometrici verificati: Attualmente l'IA generativa è in grado di riprodurre la retina, l'impronta digitale o il modo in cui una persona utilizza il mouse del computer.

Consolidamento dei processi di prevenzione delle frodi e di protezione dell'identità: Tutti i dati e i controlli devono alimentare sistemi e team in grado di analizzare i segnali e costruire modelli continuamente addestrati sul traffico buono e cattivo. Infatti, conoscere l'aspetto di un buon attore aiuterà le aziende a prevenire i tentativi di impersonificazione di clienti autentici.

Educare clienti e consumatori: Educare i consumatori in modo personalizzato attraverso numerosi canali di comunicazione in modo proattivo può aiutare a garantire che i consumatori siano consapevoli degli ultimi attacchi di frode e del loro ruolo nel prevenirli. Ciò consente di offrire un'esperienza personalizzata e senza soluzione di continuità ai consumatori autentici, bloccando al contempo i tentativi degli aggressori abilitati dall'intelligenza artificiale.

Utilizzare i dati sulla vulnerabilità dei clienti per individuare i segnali di social engineering: I clienti vulnerabili sono molto più propensi a cadere in truffe molto profonde. L'elaborazione e l'utilizzo di questi dati per l'educazione e la protezione delle vittime consentirà al settore di aiutare le persone più a rischio.

Perchè proprio adesso?

Le aziende migliori hanno utilizzato un approccio a più livelli - non esiste un singolo proiettile d'argento - alla prevenzione delle frodi, riducendo al minimo le lacune che i truffatori cercano di sfruttare. Ad esempio, utilizzando consorzi di condivisione dei dati sulle frodi e scambi di dati, i team che si occupano di frodi possono condividere le conoscenze sugli attacchi nuovi ed emergenti.

Una strategia ben stratificata che incorpora la verifica dei dispositivi, dei comportamenti, dei consorzi, dei documenti e dell'identità, riduce drasticamente i punti deboli del sistema.

La lotta alle frodi dell'intelligenza artificiale farà ora parte della strategia di tutte le aziende che prendono sul serio la prevenzione delle frodi. Gli attacchi diventeranno sempre più frequenti e sofisticati, richiedendo l'implementazione di una strategia di protezione a lungo termine che copra ogni fase del processo di prevenzione delle frodi, dal consumatore all'aggressore. Questo è l'unico modo per le aziende di proteggere se stesse e i propri clienti dalla crescente minaccia di attacchi basati sull'intelligenza artificiale.

Eduardo Castro, Managing Director ID&Fraud UK&I, Experian.