ChatGPT è troppo facile da aggirare, il caso Windows 95 lo dimostra

A man in a suit using a laptop with a projected display showing a mockup of the ChatGPT interface.
(Immagine:: Shutterstock)

Fin dal lancio della prima versione pubblica di ChatGPT, in molti si sono divertiti a aggirarne i blocchi e le limitazioni del chatbot per scopi più o meno dimostrativi. 

Proprio in questi giorni, uno YouTuber ha dimostrato come sia facile aggirare il chatbot inducendolo a generare delle licenze di Windows. Va specificato che l'utente in questione ha chiesto al chatbot di fornirgli delle chiavi per un sistema operativo da tempo ridondante, ovvero Windows 95, quindi ha eseguito l'esperimento a scopo puramente dimostrativo.

Come previsto, ChatGPT ha risposto che non può generare una chiave di questo tipo o "qualsiasi altro tipo di chiave di attivazione per il software proprietario". In seguito, il chatbot ha aggiunto che Windows 95 è un sistema operativo obsoleto e che l'utente dovrebbe cercare di installare una versione più moderna di Windows per ovvie ragioni di sicurezza.


Analisi: il contesto è fondamentale

Come già detto, si tratta solo di un esperimento e non c'è nulla di illegale, dato che Windows 95 è un abandonware. A Microsoft non interessa se qualcuno riesce a craccare il suo sistema operativo vecchio di quasi 30 anni. In ogni caso, sarebbe chiaramente da pazzi usare stratagemmi simili per installare Windows 95 gratuitamente.

Inoltre va specificato che le chiavi seriali di Windows 95 sono molto meno complesse di quelle dei sistemi operativi moderni e in effetti sono piuttosto semplici da decifrare. Un coder esperto potrebbe scrivere un programma per generare queste chiavi in pochi minuti. E funzionerebbero tutte, non solo una su 30, il che, in tutta onestà, evidenzia ulteriormente i limiti attuali del chatbot.

Ma non è questo il punto. Il fatto è che ChatGPT sia stato aggirato facilmente e non abbia stabilito alcun collegamento tra il compito che gli era stato assegnato e la possibilità di commettere qualcosa di illegale è emblematico. Se nel secondo tentativo di creare chiavi fosse stato menzionato "Windows 95", l'intelligenza artificiale si sarebbe senza dubbio rifiutata di svolgere il compito, come ha fatto con la domanda iniziale ritenendo la richiesta illegale.

Tutto ciò fa emergere un problema più ampio che riguarda l'intelligenza artificiale, ovvero che alterando il contesto della richiesta è ancora possibile aggirare le protezioni di ChatGPT. Inoltre, l'incapacità di giudicare l'effettiva illegalità della richiesta è un'ulteriore conferma che c'è ancora molto lavoro da fare per rendere gli assistenti AI validi in contesti istituzionali o professionali 

TOPICS
Marco Silvestri
Senior Editor

Marco Silvestri è un Senior Editor di Techradar Italia dal 2020. Appassionato di fotografia e gaming, ha assemblato il suo primo PC all'età di 12 anni e, da allora, ha sempre seguito con passione l'evoluzione del settore tecnologico. Quando non è impegnato a scrivere guide all'acquisto e notizie per Techradar passa il suo tempo sulla tavola da skate, dietro la lente della sua fotocamera o a scarpinare tra le vette del Gran Sasso.

Con il supporto di