RisingAttacK: così l’IA non vede più auto o segnali
Un attacco IA può rendere cieco l'autopilota dell'auto al traffico
L’intelligenza artificiale è sempre più integrata in tecnologie basate sul riconoscimento visivo, dai veicoli autonomi alla diagnostica medica – ma questa diffusione comporta anche nuovi rischi per la sicurezza, avvertono gli esperti.
Un nuovo metodo chiamato RisingAttacK potrebbe minacciare l’affidabilità di questi sistemi, manipolando in modo silenzioso ciò che l’IA percepisce.
In teoria, questo potrebbe portare il sistema a non rilevare o identificare in modo errato oggetti, anche quando le immagini risultano perfettamente normali all’occhio umano.
Inganno mirato con alterazioni minime delle immagini
Sviluppato dai ricercatori della North Carolina State University, RisingAttacK è un attacco avversariale che modifica in modo impercettibile l’input visivo per ingannare i modelli di IA.
Non richiede cambiamenti evidenti nelle immagini: agisce su tratti specifici essenziali per il riconoscimento.
«Serve una certa potenza di calcolo, ma questo ci permette di apportare modifiche minime e mirate ai punti chiave che rendono l’attacco efficace», ha spiegato Tianfu Wu, docente di ingegneria elettrica e coautore dello studio.
Queste alterazioni, progettate con precisione, sono invisibili all’occhio umano, rendendo le immagini manipolate perfettamente normali.
Iscriviti alla newsletter di Techradar Pro per ricevere tutte le ultime notizie, opinioni, editoriali e guide per il successo della tua impresa!
«Il risultato è che due immagini possono sembrare identiche per noi, magari con un’auto visibile in entrambe,» ha aggiunto Wu. «Ma a causa di RisingAttacK, l’IA vedrebbe un’auto nella prima immagine e nessuna nella seconda.»
Un simile inganno può compromettere la sicurezza di sistemi critici come quelli delle auto a guida autonoma, che dipendono dall’IA per riconoscere segnali stradali, pedoni e altri veicoli. Se l’IA non vede uno stop o un’auto, le conseguenze possono essere gravi.
Il team ha testato la tecnica su quattro delle architetture visive più diffuse: ResNet-50, DenseNet-121, ViTB e DEiT-B, ottenendo manipolazioni riuscite in tutti i casi.
«Possiamo influenzare la capacità dell’IA di rilevare uno qualsiasi dei 20-30 oggetti principali per cui è stata addestrata,» ha detto Wu, facendo esempi come auto, biciclette, pedoni e segnali stradali.
Anche se l’obiettivo attuale è la computer vision, i ricercatori stanno già valutando le implicazioni più ampie.
«Ora stiamo studiando quanto sia efficace questo metodo nel colpire altri sistemi di IA, come i modelli linguistici di grandi dimensioni,» ha anticipato Wu.
L’obiettivo finale non è solo svelare le falle, ma aiutare a sviluppare difese più robuste. «Guardando avanti, vogliamo creare strumenti capaci di difendersi da simili attacchi.»
Man mano che emergono nuove minacce per l’IA, cresce l’urgenza di protezioni digitali sempre più avanzate.
Via Techxplore
Nato nel 1995 e cresciuto da due genitori nerd, non poteva che essere orientato fin dalla tenera età verso un mondo fatto di videogiochi e nuove tecnologie. Fin da piccolo ha sempre esplorato computer e gadget di ogni tipo, facendo crescere insieme a lui le sue passioni. Dopo aver completato gli studi, ha lavorato con diverse realtà editoriali, cercando sempre di trasmettere qualcosa in più oltre alla semplice informazione. Amante del cioccolato fondente, continua a esplorare nuove frontiere digitali, mantenendo sempre viva la sua curiosità e la sua dedizione al settore.