Troppa fiducia nei chatbot: 1 persona su 3 condivide dati sensibili

ChatGPT
(Immagine:: Shutterstock)

Secondo una ricerca condotta dalla società di cybersicurezza NymVPN, quasi un britannico su tre condivide dati personali sensibili con chatbot IA come ChatGPT di OpenAI. Il 30% degli intervistati ha dichiarato di aver fornito a questi strumenti informazioni riservate, tra cui dati bancari o sanitari, mettendo a rischio la propria privacy e quella altrui.

Questo fenomeno di sovraesposizione informativa, che coinvolge anche chatbot come Google Gemini, avviene nonostante il 48% degli utenti esprima preoccupazioni legate alla privacy. Il problema si estende anche agli ambienti professionali, dove alcuni dipendenti condividono dati aziendali e informazioni sensibili sui clienti, esponendo le imprese a potenziali vulnerabilità.

Comodità prima della sicurezza

La ricerca di NymVPN evidenzia un trend preoccupante: il 26% degli utenti ha condiviso informazioni finanziarie personali con chatbot IA, come dettagli su stipendi, investimenti e mutui. Ancora più rischioso, il 18% ha fornito dati relativi a carte di credito o conti bancari.

Il problema non si limita alla sfera personale. Il 24% degli intervistati ha ammesso di aver condiviso dati di clienti, come nomi ed email, mentre il 16% ha caricato dati finanziari aziendali e documenti interni, tra cui contratti. Tutto ciò nonostante il 43% esprima preoccupazioni riguardo alla possibilità che strumenti di IA possano far trapelare dati riservati delle aziende.

“Gli strumenti di intelligenza artificiale sono entrati rapidamente nella routine lavorativa delle persone, ma stiamo assistendo a un trend allarmante: la comodità sta superando la sicurezza,” ha dichiarato Harry Halpin, CEO di NymVPN.

Il caso di Marks & Spencer, insieme a quelli di Co-op e Adidas, dimostra quanto anche le grandi aziende possano essere vulnerabili. “Le violazioni ad alto profilo mostrano quanto sia fragile la sicurezza dei dati, e più dati personali e aziendali vengono forniti all’IA, più grande diventa il bersaglio per i criminali informatici,” ha aggiunto Halpin.

L’importanza di non condividere troppo

Il fatto che quasi un quarto degli utenti condivida dati dei clienti con chatbot IA evidenzia l’urgenza per le aziende di introdurre linee guida chiare e politiche formali sull’uso dell’IA nei luoghi di lavoro.

“Dipendenti e aziende devono urgentemente riflettere su come proteggono la privacy personale e i dati aziendali quando utilizzano strumenti di intelligenza artificiale,” ha affermato Harry Halpin, CEO di NymVPN.

Evitare completamente l’uso dei chatbot sarebbe l’opzione più sicura per la privacy, ma non sempre è una soluzione realistica. Al minimo, è fondamentale evitare di condividere informazioni sensibili, sia personali che aziendali. Alcune impostazioni sulla privacy possono essere regolate, ad esempio disattivando la cronologia delle conversazioni o escludendo l’utilizzo dei dati per l’addestramento del modello.

L’utilizzo di una VPN può aggiungere un ulteriore livello di protezione, criptando il traffico e mascherando l’indirizzo IP dell’utente durante l’interazione con chatbot come ChatGPT. Questo aiuta a mantenere la posizione privata e a impedire al provider internet di monitorare l’attività online. Tuttavia, neanche la migliore VPN può garantire la sicurezza se si continuano a fornire dati riservati all’IA.

TOPICS

Nato nel 1995 e cresciuto da due genitori nerd, non poteva che essere orientato fin dalla tenera età verso un mondo fatto di videogiochi e nuove tecnologie. Fin da piccolo ha sempre esplorato computer e gadget di ogni tipo, facendo crescere insieme a lui le sue passioni. Dopo aver completato gli studi, ha lavorato con diverse realtà editoriali, cercando sempre di trasmettere qualcosa in più oltre alla semplice informazione. Amante del cioccolato fondente, continua a esplorare nuove frontiere digitali, mantenendo sempre viva la sua curiosità e la sua dedizione al settore.