Altman vs Musk: è difficile tutelare gli utenti senza limitare l'IA

Sam Altman and Elon Musk
(Immagine:: Getty Images)

  • Sam Altman ha difeso l'impegno di OpenAI sulla sicurezza dopo che Elon Musk ha attribuito a ChatGPT la responsabilità di diversi decessi
  • Altman ha definito la sicurezza dell'IA "una sfida durissima", sottolineando l'equilibrio tra protezione e usabilità
  • OpenAI deve affrontare diverse cause per omicidio colposo legate all'accusa che ChatGPT abbia aggravato le condizioni di salute mentale degli utenti

Sam Altman, CEO di OpenAI, non è certo noto per svelare troppo i segreti del funzionamento di ChatGPT. Tuttavia, ha ammesso quanto sia difficile mantenere il chatbot al contempo sicuro e utile. A innescare questa riflessione è stato Elon Musk con una serie di post taglienti su X (ex Twitter). Musk ha messo in guardia gli utenti dall'usare ChatGPT, condividendo un link a un articolo che ipotizzava un legame tra l'assistente IA e nove decessi.

Il durissimo scontro sui social media tra due delle figure più influenti dell'intelligenza artificiale ha prodotto qualcosa di più profondo di semplici ego feriti o strascichi legali. Sebbene il post di Musk non citasse il contesto più ampio dei decessi o le cause legali che OpenAI sta affrontando in merito, Altman si è sentito chiaramente obbligato a replicare.

La sua risposta è stata decisamente più accorata rispetto al solito e sterile gergo aziendale. Ha invece offerto uno scorcio sul delicato equilibrismo di OpenAI nel rendere ChatGPT e altri strumenti IA sicuri per milioni di persone, difendendo l'architettura e i sistemi di controllo della piattaforma: “Dobbiamo proteggere gli utenti vulnerabili e, al contempo, garantire che i nostri sistemi di sicurezza permettano a tutti di beneficiare dei nostri strumenti”.

Dopo aver elogiato i protocolli di sicurezza di OpenAI e la complessità nel bilanciare la riduzione dei rischi con l'utilità del prodotto, Altman ha lasciato intendere che Musk non avesse l'autorità per lanciare accuse, visti i pericoli del sistema Autopilot di Tesla.

Ha dichiarato che la sua esperienza diretta con tale tecnologia è stata sufficiente a convincerlo che fosse "tutt'altro che sicura per essere rilasciata da Tesla". Con una frecciata particolarmente mirata a Musk, ha poi aggiunto: "Non aprirò nemmeno il discorso su alcune decisioni prese per Grok".

Mentre lo scontro rimbalzava su ogni piattaforma, a colpire non è stata la solita posa da miliardari, quanto il modo insolitamente schietto con cui Altman ha inquadrato ciò che comporta realmente la sicurezza dell'IA. Per OpenAI, un'azienda che distribuisce ChatGPT contemporaneamente a studenti, terapeuti, programmatori e CEO, definire il concetto di "sicurezza" significa muoversi sul filo del rasoio tra utilità ed evitamento dei problemi: obiettivi che spesso sono in conflitto tra loro.

Altman non ha commentato pubblicamente le singole cause per omicidio colposo intentate contro OpenAI. Ha tuttavia ribadito che riconoscere i danni nel mondo reale non richiede una semplificazione eccessiva del problema. L'IA riflette gli input ricevuti e l'evoluzione delle sue risposte fa sì che moderazione e sicurezza richiedano molto più dei classici termini di servizio.

La sfida della sicurezza di ChatGPT

OpenAI sostiene di aver lavorato duramente per rendere ChatGPT più sicuro nelle versioni più recenti. Esiste un'intera suite di funzioni di sicurezza addestrate per rilevare segnali di disagio, incluse le ideazioni suicide. ChatGPT fornisce avvertenze, interrompe determinate interazioni e indirizza gli utenti verso risorse per la salute mentale quando rileva segnali di allarme. OpenAI afferma inoltre che i suoi modelli rifiuteranno, laddove possibile, di interagire con contenuti violenti.

Il pubblico potrebbe pensare che sia tutto lineare, ma il post di Altman accenna a una tensione di fondo. ChatGPT viene utilizzato in miliardi di spazi di conversazione imprevedibili tra lingue, culture e stati emotivi diversi. Una moderazione eccessivamente rigida renderebbe l'IA inutile in molte di queste circostanze, ma allentare troppo le regole moltiplicherebbe il rischio potenziale di interazioni pericolose e malsane.

Paragonare l'IA ai piloti automatici delle auto non è un'analogia perfetta, nonostante il commento di Altman. Detto ciò, si potrebbe sostenere che, mentre le strade sono regolamentate, indipendentemente dal fatto che ci sia un umano o un robot al volante, i prompt dell'IA si muovono su un sentiero molto più accidentato. Non esiste un'autorità centrale del traffico che stabilisca come un chatbot debba rispondere a un adolescente in crisi o a qualcuno con manie paranoiche. In questo vuoto, aziende come OpenAI si ritrovano a dover costruire le proprie regole e a perfezionarle in corsa.

Anche l'elemento personale aggiunge un ulteriore tassello alla disputa. Le aziende di Altman e Musk sono impegnate in una lunga battaglia legale. Musk ha fatto causa a OpenAI e ad Altman per la transizione della società da laboratorio di ricerca non-profit a modello a profitto limitato, sostenendo di essere stato raggirato quando donò 38 milioni di dollari per contribuire alla fondazione dell'organizzazione. Musk afferma che ora l'azienda dia priorità al guadagno aziendale rispetto al beneficio pubblico; Altman ribatte che il cambiamento è stato necessario per sviluppare modelli competitivi e mantenere lo sviluppo dell'IA su un binario responsabile. Il dibattito sulla sicurezza è l'aspetto filosofico e ingegneristico di una guerra che si consuma nei consigli d'amministrazione e nelle aule di tribunale su ciò che OpenAI dovrebbe rappresentare.

Indipendentemente dal fatto che Musk e Altman trovino mai un accordo sui rischi, o che riescano persino a comunicare civilmente online, tutti gli sviluppatori di IA farebbero bene a seguire l'esempio di Altman nell'essere più trasparenti su cosa significhi davvero la sicurezza dell'IA e su come ottenerla.

TOPICS
Eric Hal Schwartz
Contributor

Eric Hal Schwartz is a freelance writer for TechRadar with more than 15 years of experience covering the intersection of the world and technology. For the last five years, he served as head writer for Voicebot.ai and was on the leading edge of reporting on generative AI and large language models. He's since become an expert on the products of generative AI models, such as OpenAI’s ChatGPT, Anthropic’s Claude, Google Gemini, and every other synthetic media tool. His experience runs the gamut of media, including print, digital, broadcast, and live events. Now, he's continuing to tell the stories people want and need to hear about the rapidly evolving AI space and its impact on their lives. Eric is based in New York City.