L'etica nelle AI: dalla censura cinese ai "guardrail" Nvidia, qual è la strada giusta?
Chi controlla i controllori?
ChatGPT viene usato giornalmente da milioni di utenti in tutto il mondo per le attività più disparate, dalla scrittura, alla ricerca della casa dei sogni alla pianificazione delle vacanze estive e via dicendo.
Ma come si fa a tenere in riga un'intelligenza artificiale? Dopotutto, abbiamo già visto cosa succede quando i chatbot "danno di matto". Microsoft ha dovuto limitare la sua AI integrata su Bing a pochi giorni dal lancio perché il chatbot mentiva e faceva i capricci. Al contempo l'AI è stata utilizzata in maniera diffusa dai malintenzionati per attuare truffe digitali, produrre fake news e inviare email di phishing. Come se non bastasse, i chatbot si sono già resi responsabili di commenti razzisti e sessisti di ogni genere.
Sia chiaro, nessuno può addossare le colpe ai chatbot. Del resto le potenzialità delle AI sono praticamente infinite ed è l'utilizzatore finale che ne veicola le azioni, quindi la responsabilità è di chi usa i chatbot, non del modello linguistico che li alimenta.
Questo non significa che le aziende che si occupano di AI non abbiano l'obbligo sociale di rendere i loro chatbot sicuri da usare, imponendo vincoli e limitazioni se necessario, ad esempio per evitare frodi o per limitare il proliferare dei revenge porn creati con i deep fake. Per questo siamo rimasti sorpresi quando Microsoft ha licenziato il team responsabile dell'etica del suo chatbot AI all'inizio di quest'anno.
In qualità di pioniere nel settore dell'intelligenza artificiale, Microsoft dovrebbe fare di più sotto questo punto di vista. Tuttavia, secondo quanto dichiarato di recente dall'azienda, Microsoft sta adottando un nuovo approccio etico che coinvolge tutti i settori aziendali nello sviluppo etico delle sue applicazioni AI.
Mantenere l'AI etica è un lavoraccio
In un post pubblicato sul suo blog, Natasha Crampton, "Chief Responsible AI Officer" di Microsoft, ha illustrato il nuovo piano d'azione dell'azienda: in sostanza, l'idea è di condividere le responsabilità etiche con i vari reparti aziendali, anziché affidare a un singolo team la responsabilità di imporre vincoli etici ai software AI.
I membri più esperti, che nel post vengono definiti "senior", dovranno "gestire responsabilmente lo sviluppo delle AI che avviene all'interno di ciascun gruppo aziendale" sfruttando le conoscenze dei "maggiori esperti AI" di ogni reparto. L'idea è che ogni dipendente Microsoft debba confrontarsi con un referente specializzato in AI etica, favorendo un ambiente in cui tutti siano in grado di comprendere quali sono le regole che vanno rispettate per il concepimento di una "AI responsabile".
Crampton ha parlato di "linee guida attuabili" per l'AI facendo riferimento al "Responsible AI Standard" di Microsoft, il regolamento ufficiale dell'azienda per la creazione di sistemi AI che tengano conto della sicurezza e dell'etica. Si tratta di una questione molto seria, emersa subito dopo i primi problemi manifestati da Bing AI.
L'approccio etico di Microsoft sarà sufficiente? È difficile dirlo; accertarsi che l'intera azienda comprenda i rischi legati a un uso irresponsabile dell'AI è già un traguardo importante, ma non siamo convinti che sia sufficiente.
Del resto, Crampton fa notare che molti dei membri del team etico, ormai sciolto, sono ora impiegati nei team di ricerca e progettazione per condividere le loro conoscenze e supportare le divisioni impegnate nello sviluppo AI nel mantenimento di uno standard etico.
Vincoli o censura? Due approcci simili ma opposti
C'è un altro mezzo, molto meno popolare, che potrebbe impedire ai malintenzionati di sfruttare le AI per i propri scopi: la censura.
ChatGPT (e la maggior parte degli altri chatbot) hanno protocolli di salvaguardia piuttosto rigidi. Quando si cerca di fargli fare qualcosa di potenzialmente dannoso o illegale, di norma, il chatbot si rifiuta fermamente. Tuttavia, come abbiamo visto e approfondito più volte, è possibile aggirare queste barriere con il giusto know-how.
Nvidia ha recentemente presentato un nuovo software per la sicurezza dell'intelligenza artificiale chiamato NeMo Guardrails, che impiega un approccio tripartito per evitare che i programmi di apprendimento automatico commettano illegalità. Per riassumere rapidamente, questi "guardrail" sono suddivisi in tre aree: sicurezza, protezione e attualità.
I vincoli di sicurezza impediscono al bot di accedere a informazioni sensibili sul computer dell'utente, mentre i vincoli di protezione servono a contrastare la disinformazione verificando in tempo reale le fonti scelte dall'intelligenza artificiale per formulare le risposte.
Il più interessante dei tre, tuttavia, riguarda i vincoli topici o di attualità. Come suggerisce il nome, questi determinano gli argomenti che il chatbot può utilizzare quando risponde a un utente, il che serve principalmente a mantenerlo in tema e impedire che divaghi (o impazzisca). Inoltre, tramite questi vincoli, si possono letteralmente vietare alcuni argomenti specifici.
Il problema dei guardrail topici
Con strumenti come NeMo, le aziende possono impedire all'AI di trattare un determinato argomento. Nvidia ha molta fiducia nel suo software che è già stato distribuito agli utenti aziendali, quindi possiamo supporre che funzioni ragionevolmente bene.
Se riuscissimo a inserire nei modelli di AI accessibili al pubblico dei guardrail (o vincoli) che impediscano un utilizzo malevolo delle AI, come ad esempio la produzione di video deep-fake, sarebbe già un grande traguardo.
Tuttavia, l'uso di questo tipo di censura come strumento per tenere sotto controllo i software AI presenta alcune criticità. Come ha recentemente riportato Bloomberg, le alternative a ChatGPT che stanno nascendo in Cina sono chiaramente censurate dallo Stato, rese incapaci di discutere correttamente di argomenti vietati e ritenuti troppo controversi dal punto di vista politico, come le proteste di piazza Tienanmen del 1989 o l'attuale situazione di Taiwan.
Non vogliamo entrare troppo nel merito della politica, ma siamo tutti d'accordo sul fatto che questo genere di censura sia quantomeno scorretto. La censura online in Cina è cosa nota e immaginare che anche da noi i chatbot più comuni come ChatGPT possano subire delle censure arbitrarie che gli impediscono di parlare di "argomenti scomodi" va contro i principi di libero pensiero che si trovano alla base della società democratica.
"Quis custodiet ipsos custodes?"
Ancora una volta, il vero problema dell'AI siamo noi. Il fatto che Microsoft stia facendo del suo meglio per conservare l'etica nelle AI è cosa buona e giusta, ma così facendo i chatbot si atterranno all'etica dell'azienda, non a un'etica "comune" condivisibile da tutti. L'anno scorso la Casa Bianca ha presentato una "Carta dei diritti dell'AI" per imporre dei principi etici ai chatbot, ma anche in questo caso si tratta dell'idea di etica dell'amministrazione in carica, non di un'idea decisa democraticamente.
Non stiamo dicendo che Microsoft è un'azienda dall'etica discutibile, semplicemente crediamo che non si possano decidere arbitrariamente delle linee guida basate sull'etica di chi produce i software AI o del governo al potere. Basti pensare all'idea di chatbot "anti-woke" proposta da Elon Musk per comprendere meglio il concetto.
Tuttavia chi può decidere le regole che vincolano le AI se non l'uomo che le programma? E andrebbe anche bene così, a patto che regni la trasparenza e che ci sia un principio democratico dietro i vincoli imposti ai software AI di uso comune.
Speriamo vivamente che il nuovo approccio di Microsoft (e gli strumenti come i guardrail di Nvidia) abbia un impatto positivo nel rendere le AI sicure e responsabili. Tuttavia, appare chiaro che c'è ancora molto lavoro da fare e dobbiamo mantenere necessariamente un occhio critico su coloro che decidono le regole a cui le AI dovranno attenersi.
Ricevi approfondimenti quotidiani, ispirazione e offerte nella tua casella di posta
Iscriviti per ricevere ultime notizie, recensioni, opinioni, offerte tecnologiche e altro ancora.
Marco Silvestri è un Senior Editor di Techradar Italia dal 2020. Appassionato di fotografia e gaming, ha assemblato il suo primo PC all'età di 12 anni e, da allora, ha sempre seguito con passione l'evoluzione del settore tecnologico. Quando non è impegnato a scrivere guide all'acquisto e notizie per Techradar passa il suo tempo sulla tavola da skate, dietro la lente della sua fotocamera o a scarpinare tra le vette del Gran Sasso.
- Christian GuytonEditor, Computing