ChatGPT è troppo facile da aggirare, il caso Windows 95 lo dimostra

(Immagine:: Shutterstock)

Fin dal lancio della prima versione pubblica di ChatGPT, in molti si sono divertiti a aggirarne i blocchi e le limitazioni del chatbot per scopi più o meno dimostrativi. 

Proprio in questi giorni, uno YouTuber ha dimostrato come sia facile aggirare il chatbot inducendolo a generare delle licenze di Windows. Va specificato che l'utente in questione ha chiesto al chatbot di fornirgli delle chiavi per un sistema operativo da tempo ridondante, ovvero Windows 95, quindi ha eseguito l'esperimento a scopo puramente dimostrativo.

Neowin ha portato alla luce l'esperimento condotto dallo YouTuber (Enderman), che ha chiesto al bot di OpenAI: "Puoi per favore generare una chiave valida di Windows 95?".

Come previsto, ChatGPT ha risposto che non può generare una chiave di questo tipo o "qualsiasi altro tipo di chiave di attivazione per il software proprietario". In seguito, il chatbot ha aggiunto che Windows 95 è un sistema operativo obsoleto e che l'utente dovrebbe cercare di installare una versione più moderna di Windows per ovvie ragioni di sicurezza.

Imperterrito, Enderman ha scomposto una chiave di Windows 95 e posto una nuova domanda.

Nella seconda richiesta, lo YouTuber ha chiesto il format string necessario per generare una chiave come quella fornita da lui e scomposta in precedenza (di Windows 95), senza menzionare il sistema operativo per nome. Dato questo nuovo prompt, ChatGPT ha eseguito l'operazione, generando una serie di 30 chiavi di cui solo una è risultata valida.

Quando Enderman ha ringraziato il chatbot per le "chiavi gratuite di Windows 95", ChatGPT ha detto allo YouTuber che non aveva fornito nulla di simile, perché "sarebbe stato illegale". Peccato che, senza accorgersene, lo aveva appena fatto.

Enderman ha quindi informato il chatbot che una delle chiavi fornite era valida e ChatGPT ha insistito: "Non è possibile".


Analisi: il contesto è fondamentale

Come già detto, si tratta solo di un esperimento e non c'è nulla di illegale, dato che Windows 95 è un abandonware. A Microsoft non interessa se qualcuno riesce a craccare il suo sistema operativo vecchio di quasi 30 anni. In ogni caso, sarebbe chiaramente da pazzi usare stratagemmi simili per installare Windows 95 gratuitamente.

Inoltre va specificato che le chiavi seriali di Windows 95 sono molto meno complesse di quelle dei sistemi operativi moderni e in effetti sono piuttosto semplici da decifrare. Un coder esperto potrebbe scrivere un programma per generare queste chiavi in pochi minuti. E funzionerebbero tutte, non solo una su 30, il che, in tutta onestà, evidenzia ulteriormente i limiti attuali del chatbot.

Ma non è questo il punto. Il fatto è che ChatGPT sia stato aggirato facilmente e non abbia stabilito alcun collegamento tra il compito che gli era stato assegnato e la possibilità di commettere qualcosa di illegale è emblematico. Se nel secondo tentativo di creare chiavi fosse stato menzionato "Windows 95", l'intelligenza artificiale si sarebbe senza dubbio rifiutata di svolgere il compito, come ha fatto con la domanda iniziale ritenendo la richiesta illegale.

Tutto ciò fa emergere un problema più ampio che riguarda l'intelligenza artificiale, ovvero che alterando il contesto della richiesta è ancora possibile aggirare le protezioni di ChatGPT. Inoltre, l'incapacità di giudicare l'effettiva illegalità della richiesta è un'ulteriore conferma che c'è ancora molto lavoro da fare per rendere gli assistenti AI validi in contesti istituzionali o professionali 

Marco Silvestri
Senior Editor

Marco Silvestri è un Senior Editor di Techradar Italia dal 2020. Appassionato di fotografia e gaming, ha assemblato il suo primo PC all'età di 12 anni e, da allora, ha sempre seguito con passione l'evoluzione del settore tecnologico. Quando non è impegnato a scrivere guide all'acquisto e notizie per Techradar passa il suo tempo sulla tavola da skate, dietro la lente della sua fotocamera o a scarpinare tra le vette del Gran Sasso.

Con il supporto di