Ecco perché l'IA non sostituirà l'intelligenza umana nella cybersecurity
L'intelligenza artificiale deve aiutare e non sostituire l'intelligenza umana
La tecnologia si è evoluta in modo significativo negli ultimi anni, grazie soprattutto ai progressi dell'intelligenza artificiale. Circa il 51% delle aziende la utilizza per la sicurezza informatica e la gestione delle frodi, perché è in grado di individuare una potenziale violazione prima che provochi problemi.
Tuttavia, l'efficacia dell'IA può rendere le persone troppo dipendenti da questa tecnologia. La totale fiducia nell'intelligenza artificiale ha fatto sì che il 77% di queste aziende scoprisse una falla nel proprio sistema di IA. Con la continua evoluzione della tecnologia, questi problemi sono destinati a ripetersi, soprattutto se lasciati senza supervisione.
Detto questo, ciò non significa che le aziende debbano evitare di utilizzare l'IA per le loro esigenze di cybersicurezza. Non c'è dubbio che l'IA possa essere una risorsa se usata correttamente. Tuttavia, le aziende dovrebbero utilizzarla per aumentare l'intelligenza umana piuttosto che sostituirla. Senza includere l'apporto e la supervisione umana nella formula della sicurezza, le probabilità di creare un punto cieco possono essere molto elevate.
Il problema dei pregiudizi dell'IA nella sicurezza informatica
I sistemi di intelligenza artificiale possono facilmente rilevare una minaccia in pochi secondi, perché sono in grado di elaborare i dati presenti con estrema rapidità. Il problema principale è che l'addestramento dell'IA richiede molto tempo: a volte possono essere necessari mesi perché il sistema IA riesca a comprendere completamente una nuova procedura. Ad esempio, ChatGPT attinge la maggior parte dei suoi dati da informazioni precedenti al 2023. Lo stesso vale per la maggior parte degli strumenti di IA, che necessitano di formazione e aggiornamento costanti per mantenere le informazioni accurate.
Con l'aumento delle minacce alla sicurezza informatica, questo può essere piuttosto problematico. Poiché gli hacker creano nuovi e diversi modi per superare i sistemi di sicurezza, una tecnologia di IA non aggiornata potrebbe non sapere come reagire o perdere completamente una minaccia.
In questo scenario, il coinvolgimento umano è necessario perché le persone possono usare il loro intuito e la loro esperienza per determinare se c'è o meno una reale minaccia alla sicurezza informatica. Senza queste competenze umane, affidarsi completamente all'IA può causare falsi positivi e negativi, che possono portare a dannose violazioni della sicurezza informatica o allo spreco di risorse aziendali.
I pregiudizi culturali possono avere un impatto sui dati della formazione
Alcuni sistemi di intelligenza artificiale possono essere addestrati con nuovi dati ogni settimana, assicurando che rimangano aggiornati per la maggior parte del tempo. Tuttavia, per quanto gli addestratori possano essere diligenti, c'è sempre il rischio di pregiudizi culturali nei dati addestrati. Ad esempio, gli Stati Uniti sono stati all'avanguardia in alcuni dei più recenti progressi nel campo della sicurezza informatica. Il problema è che è stato fatto interamente in inglese, quindi i sistemi di intelligenza artificiale potrebbero non notare le minacce provenienti da regioni non anglofone.
Sei un professionista? Iscriviti alla nostra Newsletter
Iscriviti alla newsletter di Techradar Pro per ricevere tutte le ultime notizie, opinioni, editoriali e guide per il successo della tua impresa!
Per evitare questo problema, è fondamentale testare sistemi e programmi che utilizzino una serie di strumenti di IA culturalmente diversi e il coinvolgimento umano per coprire i potenziali punti ciechi.
Sfide del pregiudizio algoritmico
I sistemi di intelligenza artificiale si basano sui dati con cui sono stati addestrati per intraprendere una determinata azione. Se i dati sono incompleti o ci sono difetti nell'algoritmo, è molto probabile che si verifichino falsi positivi e negativi, oltre a imprecisioni.
Quando ciò accade, l'IA può iniziare ad avere allucinazioni, presentando linee d'azione e suggerimenti che sembrano logici ma sono eticamente scorretti. Se il sistema fosse impostato per seguire le indicazioni dell'IA senza il coinvolgimento dell'uomo, le conseguenze potrebbero essere gravi e dispendiose per l'azienda.
Queste allucinazioni possono verificarsi in qualsiasi momento, ma possono anche essere evitate. Ad esempio, l'uomo può curare e convalidare regolarmente le informazioni, assicurandosi che siano complete e aggiornate. L'uomo può anche fornire intuizioni, individuando potenziali pregiudizi che potrebbero compromettere l'algoritmo di sicurezza.
L'intelligenza artificiale è generalmente buona quanto le informazioni che le sono state fornite, per questo motivo richiede una supervisione costante. Se viene lasciata sola per lunghi periodi, l'algoritmo può diventare obsoleto e prendere decisioni non aggiornate. Il cervello umano dovrebbe apportare l'aspetto innovativo che spesso sembra mancare all'IA.
La questione dei bias cognitivi nella messa a punto dell'IA
I sistemi di intelligenza artificiale ricavano dettagli complessi da un ampio bacino di dati per prendere una decisione informata e non emotiva. Tuttavia, il problema è che i dati forniti all'IA provengono anche dagli esseri umani. Oltre alle loro conoscenze, l'IA può anche assorbire i loro potenziali pregiudizi o imitare la loro mancanza di conoscenza. In definitiva, i sistemi di IA sono come una spugna: se il formatore di dati ha dei pregiudizi, è molto probabile che li abbia anche la mente artificiale.
Ad esempio, supponiamo che stiate creando un programma di sicurezza per impedire ai criminali informatici di accedere al vostro database. Tuttavia, non avete alcuna conoscenza nel campo della sicurezza informatica; avete solo le competenze informatiche per mettere insieme un buon algoritmo. Questa mancanza di conoscenze potrebbe riflettersi nell'algoritmo scritto quando si prevede come un criminale informatico potrebbe attaccare.
Per evitare che ciò accada, è generalmente consigliabile un team diversificato. Non solo possono completare il pool di dati, ma possono anche individuare alcune tecniche di evasione che altrimenti potrebbero eludere il sistema di intelligenza artificiale. Questo potrebbe ridurre significativamente le potenziali violazioni e proteggere il proprio sistema da una minaccia nascosta.
Il risultato finale
In definitiva, anche se i sistemi di IA possono essere una risorsa significativa per ridurre il carico di lavoro nella cybersecurity, non possono lavorare in modo indipendente. Per garantire che le aziende siano completamente protette dalle minacce alla sicurezza informatica, l'IA dovrebbe essere utilizzata per aumentare l'intelligenza umana piuttosto che sostituirla. In questo modo si possono evitare errori costosi e dispendiosi in termini di tempo nel lungo periodo.
This article was produced as part of TechRadarPro's Expert Insights channel where we feature the best and brightest minds in the technology industry today. The views expressed here are those of the author and are not necessarily those of TechRadarPro or Future plc. If you are interested in contributing find out more here: https://www.techradar.com/news/submit-your-story-to-techradar-pro
Khurram Mir, Chief Marketing Officer, Kualitatem.