L'IA "armata" potrebbe essere la più grande minaccia alla sicurezza della tua azienda
I "Dark LLM" consentono ad attori poco esperti di lanciare truffe sofisticate su larga scala.
Sign up for breaking news, reviews, opinion, top tech deals, and more.
You are now subscribed
Your newsletter sign-up was successful
- L'attività fraudolenta assistita dall'IA ha registrato una crescita netta, rendendo le campagne di phishing molto più convincenti.
- Gli attacchi d'identità basati su deepfake hanno causato perdite accertate superiori a 347 milioni di dollari a livello globale.
- I crimeware basati sull'IA offerti in abbonamento stanno creando un mercato sotterraneo stabile e in continua espansione.
L'intelligenza artificiale viene ora utilizzata dai criminali informatici per automatizzare le frodi, scalare le campagne di phishing e industrializzare i furti d'identità a un livello precedentemente impraticabile.
Purtroppo, gli attacchi assistiti dall'IA potrebbero essere tra le maggiori minacce alla sicurezza che la vostra azienda si troverà ad affrontare quest'anno; tuttavia, restare vigili e agire tempestivamente può permettervi di giocare d'anticipo.
Il rapporto Weaponized AI di Group-IB mostra come il crescente utilizzo dell'IA da parte dei criminali rappresenti una distinta "quinta ondata" del crimine informatico, alimentata dalla disponibilità commerciale di strumenti di IA piuttosto che da sperimentazioni isolate.
L'aumento del cybercrime guidato dall'IA
Le prove derivanti dal monitoraggio del dark web mostrano che l'attività criminale informatica legata all'IA non è una risposta a breve termine alle nuove tecnologie.
Group-IB afferma che i post pubblicati per la prima volta sul dark web contenenti parole chiave relative all'IA sono aumentati del 371% tra il 2019 e il 2025. L'accelerazione più marcata è seguita al rilascio pubblico di ChatGPT alla fine del 2022, dopodiché i livelli di interesse sono rimasti costantemente elevati.
Entro il 2025, decine di migliaia di discussioni sui forum ogni anno facevano riferimento all'uso improprio dell'IA, indicando un mercato sotterraneo stabile piuttosto che una semplice curiosità sperimentale. Gli analisti di Group-IB hanno identificato almeno 251 post focalizzati esplicitamente sullo sfruttamento dei modelli linguistici di grandi dimensioni (LLM), con la maggior parte dei riferimenti legati ai sistemi basati su OpenAI.
È emersa un'economia strutturata di crimeware basati sull'IA, con almeno tre fornitori che offrono "Dark LLM" auto-ospitati privi di restrizioni di sicurezza. I prezzi degli abbonamenti variano dai 30 ai 200 dollari al mese, con alcuni venditori che dichiarano oltre 1.000 utenti.
Iscriviti alla newsletter di Techradar Pro per ricevere tutte le ultime notizie, opinioni, editoriali e guide per il successo della tua impresa!
Uno dei segmenti in più rapida crescita è quello dei servizi di furto d'identità, con le menzioni di strumenti deepfake legati all'elusione della verifica dell'identità aumentate del 233% su base annua. I kit base per l'identità sintetica sono venduti a soli 5 dollari, mentre le piattaforme deepfake in tempo reale costano tra i 1.000 e i 10.000 dollari.
Group-IB ha registrato 8.065 tentativi di frode tramite deepfake presso un singolo istituto tra gennaio e agosto 2025, con perdite globali accertate che hanno raggiunto i 347 milioni di dollari. Anche i malware assistiti dall'IA e l'abuso delle API sono cresciuti drasticamente, con il phishing generato dall'IA ora integrato nelle piattaforme malware-as-a-service e negli strumenti di accesso remoto.
Gli esperti avvertono che gli attacchi alimentati dall'IA possono aggirare le difese tradizionali, a meno che i team non monitorino e aggiornino continuamente i sistemi. Le reti necessitano della protezione di firewall in grado di identificare il traffico insolito e i tentativi di phishing generati dall'IA.
Con un'adeguata protezione degli endpoint, le aziende possono rilevare attività sospette prima che il malware o gli strumenti di accesso remoto si diffondano. La rimozione rapida e adattiva dei malware rimane fondamentale, poiché gli attacchi abilitati dall'IA possono eseguirsi e propagarsi più velocemente di quanto i metodi standard riescano a rispondere.
Combinate con un approccio di sicurezza a più livelli e con il rilevamento delle anomalie, queste misure aiutano a bloccare intrusioni come chiamate deepfake, voci clonate e falsi tentativi di accesso.

Efosa has been writing about technology for over 7 years, initially driven by curiosity but now fueled by a strong passion for the field. He holds both a Master's and a PhD in sciences, which provided him with a solid foundation in analytical thinking.