Agenti AI: rischi e controlli per l'IT aziendale
Gli agenti AI potenziano l'IT ma richiedono controlli per prevenire errori catastrofici
Gli agenti AI possono fare cose straordinarie per semplificare la vita del management IT. Ma hanno anche il potenziale per causare danni incredibili - una lezione che alcune organizzazioni stanno già imparando a loro spese.
Ad esempio, Replit, un fornitore di strumenti di sviluppo software, ha annunciato nel luglio 2025 che uno strumento AI aveva cancellato un intero database di produzione.
Anche se non è chiaro cosa sia andato storto in quel caso - se si sia trattato di un problema come un agente AI difettoso, un prompt mal scritto o un errore da parte dell'LLM che guidava le azioni dell'agente - l'incidente evidenzia i tipi di problemi gravi che possono verificarsi quando gli agenti AI fanno cose che non dovrebbero fare.
AI Enablement Principal at Asperitas.
Di conseguenza, questo sottolinea l'importanza cruciale di adottare misure per gestire i rischi che gli agenti AI comportano. Per sfruttare appieno l'enorme potenza offerta dalla tecnologia AI agenziale, i professionisti IT devono anche aderire alle best practice che possono impedire agli agenti AI di utilizzare tale potenza in modi non intenzionali. Dato che la tecnologia AI agenziale rimane abbastanza nuova, il consenso su come proteggere e gestire al meglio gli agenti AI è ancora in evoluzione. Ma come qualcuno che ha lavorato intensivamente con gli agenti AI per aiutare a costruire e distribuire software per gran parte di un anno, ho alcuni pensieri precisi su cosa i team possono fare per tenere sotto controllo i rischi senza compromettere la loro capacità di sfruttare appieno gli agenti AI.
Perché gli agenti AI commettono errori?
Automatizzando compiti come la scrittura, il testing e il deploy di codice, gli agenti AI possono far risparmiare molto tempo. Non sono certamente qui per suggerire di evitare l'uso degli agenti AI.
Tuttavia, gli agenti AI hanno anche il potenziale per causare danni facendo cose che gli esseri umani responsabili degli agenti non intendevano. Questo è dovuto al modo in cui funzionano gli agenti AI: quando chiedi a un agente di gestire un compito, di fatto esternalizzi quel compito, lasciando decidere all'agente esattamente come portarlo a termine. Possono sorgere vari problemi che portano l'agente a fare qualcosa che non desideri, come:
- Bug nella logica che controlla l'agente possono causare comportamenti inaspettati. Ad esempio, l'agente potrebbe passare un contesto non valido al modello AI con cui sta lavorando, risultando in un'azione diversa da quella richiesta.
Iscriviti alla newsletter di Techradar Pro per ricevere tutte le ultime notizie, opinioni, editoriali e guide per il successo della tua impresa!
- Il prompt che invii all'agente potrebbe essere ambiguo o difficile da interpretare per il modello, causando una risposta in modo non intenzionale.
- Il modello AI che guida l'agente potrebbe allucinare e istruire l'agente a fare qualcosa che non volevi - come eseguire un comando che elimina una risorsa critica.
Vale la pena notare che questi rischi generalmente non si applicano (almeno non nella stessa misura) ad altri tipi di software. Quando scrivi codice che specifica riga per riga come un'applicazione dovrebbe completare un compito, puoi avere fiducia che, finché non ci sono bug nel tuo codice o nella configurazione, l'applicazione si comporterà nel modo in cui l'hai programmata. Ma gli agenti AI sono diversi perché hanno un grado di autonomia. Non c'è modo di garantire che un agente farà quello che vuoi che faccia, figuriamoci che lo farà nel modo specifico che avevi immaginato. Anche se il tuo prompt include istruzioni dettagliate, l'agente potrebbe finire per fare qualcosa di diverso.
Naturalmente, la responsabilità ultima per gli errori commessi dagli agenti AI ricade sugli esseri umani che usano quegli agenti - ecco perché chiunque dia agli agenti accesso alle risorse deve essere preparato ad assumersela per gli errori commessi dagli agenti.
Best practice per mitigare i rischi degli agenti AI
L'impossibilità di controllare il comportamento degli agenti AI con precisione totale rende impossibile garantire che non commettano errori. Quello che puoi fare, tuttavia, è implementare misure che limitino a quali risorse gli agenti possono accedere e quali azioni possono eseguire adottando le seguenti pratiche.
1. Abilita rollback automatici
Nel contesto dell'AI agenziale, la differenza tra un errore catastrofico e un disturbo minore spesso dipende dalla possibilità di annullare facilmente le modifiche apportate da un agente. Ecco perché è importante garantire la capacità di eseguire il rollback delle modifiche apportate dagli agenti, cosa che puoi fare implementando sistemi di controllo versione.
Ad esempio, se un agente elimina un file che era sotto controllo versione, non è un grosso problema se puoi semplicemente ripristinare il file eliminato. È un problema molto più grave se non c'è un modo facile per annullare la modifica.
2. Limita i privilegi degli agenti
Come non daresti a una persona non fidata accesso illimitato alle risorse IT, è una best practice limitare a quali risorse gli agenti AI possono accedere. Come gli esseri umani, gli agenti dovrebbero essere soggetti al principio del minimo privilegio, il che significa che possono accedere solo alle risorse necessarie per completare i loro compiti previsti.
Ad esempio, se prevedi di utilizzare un agente di coding per gestire una sola funzionalità dell'applicazione, dargli accesso a tutti i tuoi repository potrebbe essere un errore.
Invece, fornisci accesso solo ai repository o ai file sorgente associati a quella particolare funzionalità - a meno che l'agente non abbia bisogno di visualizzare altro codice per scopi contestuali. In tal caso potrebbe ricevere accesso di sola lettura al codice contestuale pur mantenendo la capacità di scrivere o modificare il codice associato alla funzionalità specifica.
3. Registra e osserva l'attività degli agenti
È fondamentale mantenere la visibilità sulle azioni che compiono gli agenti - quali comandi eseguono, a quali dati accedono e così via. Con questa conoscenza, diventa possibile identificare comportamenti rischiosi degli agenti, quindi prendere misure per prevenire comportamenti simili in futuro.
A tal fine, implementa il logging che tiene traccia dell'attività degli agenti. A seconda del framework AI agenziale che usi, potrebbe essere possibile implementare il logging direttamente all'interno degli agenti facendo loro creare record della propria attività.
Un altro approccio è utilizzare strumenti o framework di auditing integrati nei sistemi operativi o piattaforme software, come il daemon di audit su Linux.
4. Implementa controlli umani nell'attività degli agenti
In generale, è una best practice mantenere gli esseri umani nel ciclo quando gli agenti AI prendono decisioni ad alto rischio o modificano risorse critiche. Richiedere una revisione manuale o l'approvazione dell'attività proposta dagli agenti può rallentare i flussi di lavoro guidati dagli agenti, ma fornisce una protezione importante contro gli errori degli agenti AI che potrebbero avere conseguenze molto gravi.
Ad esempio, se hai un agente che aiuta a gestire i trasferimenti di fondi dei clienti, potresti implementare una regola che richiede l'approvazione umana per trasferimenti superiori a €10.000 o più. Oppure, quando usi agenti AI per il coding, potresti progettarli per creare pull request che uno sviluppatore deve approvare prima che le modifiche vengano applicate - invece di lasciare che gli agenti modifichino il codice direttamente.
5. Tratta gli agenti come codice
Come la maggior parte degli altri tipi di risorse IT, gli agenti funzionano meglio quando vengono gestiti in modo sistematico e coerente – un approccio che puoi ottenere trattando gli agenti come codice. Più specificamente, le configurazioni degli agenti dovrebbero essere governate da codice che puoi controllare tramite versioning e testare. Considera anche l'uso di pipeline CI/CD per gestire la logica e i prompt degli agenti. Gli LLM a cui si collegano gli agenti dovrebbero anche essere testati e monitorati fornendo loro prompt rilevanti per l'attività dell'agente e valutando la loro risposta.
Come gestire gli agenti AI
Sfortunatamente, strumenti dedicati per applicare i tipi di pratiche di gestione degli agenti AI che ho appena descritto rimangono scarsi. È probabile che questo cambi man mano che le soluzioni di gestione per l'AI agenziale si evolveranno. Ma per ora, aspettati di dover adottare un approccio principalmente manuale per configurare gli agenti.
Bisogna comprendere, inoltre, che probabilmente dovrai gestire la sicurezza dei tuoi agenti caso per caso, perché agenti diversi hanno esigenze diverse. Ad esempio, i controlli di accesso appropriati per un agente potrebbero essere insufficienti o eccessivi per un altro, a seconda di cosa ogni agente deve fare.
Detto questo, è possibile semplificare gli approcci alla gestione degli agenti AI affidandosi al codice per implementare configurazioni e politiche. Utilizzando gli stessi framework e strumenti di gestione dell'identità e degli accessi che limitano i privilegi degli utenti umani, puoi gestire anche i diritti di accesso degli agenti AI.
Conclusione: massimizzare il valore dell'AI agenziale minimizzando i rischi
Alla fine, gestire gli agenti AI non è poi così diverso dal gestire qualsiasi altro tipo di utente. La cosa importante è semplicemente ricordarsi di intraprendere azioni per limitare quello che gli agenti possono fare, ed evitare di presumere che siano qualche tipo di soluzione magica e autogovernata. Proprio come gli esseri umani, gli agenti AI sono imperfetti – ma i potenziali rischi derivanti da queste imperfezioni possono essere tenuti sotto controllo attraverso processi di gestione e controlli di accesso appropriati.
Abbiamo elencato i migliori Large Language Models (LLM) per il coding.
Questo articolo è stato prodotto come parte del canale Expert Insights di TechRadarPro, dove presentiamo le migliori e più brillanti menti dell'industria tecnologica di oggi. Le opinioni qui espresse sono quelle dell'autore e non sono necessariamente quelle di TechRadarPro o Future plc. Se sei interessato a contribuire, scrivi a valerio.porcu@techradaritalia.it
AI Enablement Principal at Asperitas.