ChatGPT è fantastico, ma implica nuovi rischi per la privacy

Microsoft head quarters in France
(Immagine:: HJBC / Shutterstock)

L'Intelligenza Artificiale è arrivata nella nostra vita quotidiana e, di conseguenza, le discussioni etiche sul tema si sono intensificate, soprattutto per quanto riguarda la quantità di dati che questi servizi raccolgono dagli utenti. Dopotutto, quando c'è un immagazzinamento di massa di informazioni potenzialmente sensibili, ci sono fisiologiche preoccupazioni nei temi di cybersicurezza e privacy. 

Il nuovo Bing alimentato da ChatGPT, è quasi pronto per il lancio e ha suscitato una serie di preoccupazioni, in quanto Microsoft non ha i migliori precedenti in fatto di rispetto della privacy dei propri utenti.

Microsoft è stata talvolta contestata per la gestione e l'accesso ai dati degli utenti, anche se in misura minore rispetto a concorrenti come Apple, Google e Facebook.

Jennifer King, direttrice della sezione Privacy dei Consumatori presso il Center for Internet and Society della Stanford Law School, ha ipotizzato che ciò sia in parte dovuto alla posizione di lunga data di Microsoft, sia nel proprio mercato di riferimento sia nei rapporti duraturi con gli enti governativi. Avendo una maggiore esperienza nei rapporti con le autorità di regolamentazione, potrebbe aver evitato lo stesso livello di controllo dei suoi concorrenti.

Una grandissima quantità di dati

Microsoft, così come altre aziende, si trova ora a dover fronteggiare un afflusso massiccio di dati a causa della popolarità di chatbot come ChatGPT. Secondo il Telegraph, Microsoft dispone di revisori che analizzano le comunicazioni degli utenti per limitare eventuali danni e rispondere agli input potenzialmente pericolosi degli utenti, esaminando i registri delle conversazioni e intervenendo per moderare i "comportamenti inappropriati". 

L'azienda sostiene che i messaggi inviati vengano privati delle informazioni personali, che i testi delle chat siano accessibili solo a determinati revisori e che queste misure proteggano gli utenti anche quando le conversazioni con il chatbot vengono esaminate.

Un portavoce di Microsoft ha precisato che l'azienda si avvale sia di revisioni automatizzate (poiché la mole di dati da analizzare è notevole), sia di revisori manuali. Il portavoce afferma che questo è lo standard per i motori di ricerca ed è inoltre incluso nella dichiarazione sulla privacy di Microsoft. 

Il portavoce si preoccupa di rassicurare gli interessati sul fatto che Microsoft impieghi standardizzate per garantire la privacy, come "pseudonimizzazione, crittografia a riposo, gestione dell'accesso ai dati protetta e approvata e procedure di conservazione dei dati". 

Inoltre, i revisori possono visualizzare i dati degli utenti solo sulla base di "un'esigenza aziendale verificata e non di terze parti". Microsoft ha successivamente aggiornato la sua dichiarazione sulla privacy per riassumere e chiarire quanto sopra: le informazioni degli utenti vengono raccolte e i dipendenti di Microsoft possono vederle.

Sotto i riflettori

Microsoft non è l'unica azienda sotto esame per il modo in cui raccoglie e gestisce i dati degli utenti quando si tratta di chatbot AI. Anche OpenAI, l'azienda che ha creato ChatGPT, ha rivelato di esaminare le conversazioni degli utenti. 

Di recente, l'azienda dietro Snapchat ha annunciato l'introduzione di un chatbot con integrato ChatGPT, avvertendo gli utenti di non inviare informazioni personali sensibili, forse per motivi analoghi. 

Queste preoccupazioni si moltiplicano se si considera l'uso di ChatGPT da parte di coloro che lavorano in aziende con informazioni sensibili, molte delle quali hanno avvertito i dipendenti di non inviare informazioni aziendali riservate a questi chatbot. Alcune aziende, come JP Morgan e Amazon, ne hanno limitato o vietato del tutto l'uso sul lavoro. 

I dati personali degli utenti sono stati, e continuano a essere, un problema fondamentale per la tecnologia in generale. L'uso improprio o malevolo di dati sensibili può avere conseguenze terribili sia per le singole persone che per le organizzazioni. Con l'introduzione di una nuova tecnologia, questi rischi aumentano.

Giulia Di Venere

Giulia Di Venere è Editor Senior per TechRadar Italia e lavora con orgoglio al progetto da quando è nato.

Laureata in Lingue e Letterature Straniere all’Università Ca’ Foscari di Venezia, è una grande appassionata di cinema, libri, cucina e cinofilia.

Da sempre considera la scrittura lo strumento più efficace per comunicare, e scrivere per fare informazione, ogni giorno, è per lei motivo di grande soddisfazione.

Copre una grande varietà di tematiche, dagli smartphone ai gadget tecnologici per la casa, gestendo la pubblicazione dei contenuti editoriali e coordinando le attività della redazione.

Dalla personalità un po’ ambivalente, ama viaggiare tanto quanto passare il tempo libero nella tranquillità della propria casa, in compagnia del suo cane e di un buon libro.

Con il supporto di