Cosa è meglio NON condividere con ChatGPT

Shush, be silent. Serious pretty business woman in formal blouse makes presses index finger over lips asks to keep secret information confidential look
(Immagine:: South House Studio via Shuttertsock)

Comunque la si pensi su ChatGPT, non si può negare che il chatbot si sia dimostrato una risorsa importante per molti lavoratori. Questo potente strumento è comparso da un giorno all'altro e sembra destinato a restare con noi ancora a lungo, motivo per cui è necessario capire cosa fare e cosa è meglio non fare con ChatGPT.

La maggior parte delle persone ha una vaga consapevolezza dei possibili pericoli derivanti dall'utilizzo di chatbot come ChatGPT e delle potenziali violazioni dei dati o della privacy a cui si può andare incontro utilizzandolo. Come abbiamo già visto su piccola scala, ChatGPT potrebbe diventare un incubo per la sicurezza ed è già costato caro ad alcuni dipendenti che ne hanno fatto un uso eccessivo.

All'inizio dell'anno, ChatGPT si è fermato lasciando letteralmente a piedi milioni di utenti che si sono trovati impossibilitati ad accedere al bot. Al blocco è seguito un post di OpenAI nel quale abbiamo appreso dell'esistenza di un bug che permetteva agli utenti di vedere i titoli delle chat nella cronologia degli altri utenti.

Si trattava solo della prima avvisaglia di un problema di sicurezza ben più serio.

Quali sono i rischi?

Dopo aver risolto il problema, OpenAI ha ammesso che lo stesso bug "potrebbe aver provocato la diffusione dei dati di pagamento dell'1,2% degli abbonati a ChatGPT Plus che erano attivi durante una specifica finestra di nove ore"

Questo è solo un piccolo esempio dei pericoli che possono scaturire dall'uso del chatbot. Per questo è il caso di chiedersi: fino a che punto è lecito condividere i propri dati con le AI?

Sam Altman, CEO di OpenAI, ha riconosciuto i rischi che si corrono affidandosi a ChatGPT e avverte che "al momento è un errore fare affidamento su di esso per qualsiasi cosa importante".

ChatGPT va approcciato allo stesso modo di altre piattaforme come Facebook o Twitter: se non volete che il pubblico legga ciò che avete da dire, tenetevelo per voi.

L'atteggiamento amichevole e innocente di chatbot come Google Bard e Bing AI può trarre in inganno ma, a meno che non si scelga espressamente di non condividerle, tutte le informazioni inserite nella finestra di testo vengono utilizzate per addestrare il chatbot o esaminate dai dipendenti di OpenAI.

Tenetelo a mente la prossima volta che iniziate a chattare con un chatbot!

Dovreste usare ChatGPT per lavoro? Probabilmente no. 

Molti hanno elogiato le capacità dei chatbot AI nell'ambito della produttività. Questi strumenti sono in grado di velocizzare operazioni di routine come redigere le e-mail, inventare didascalie per i social media e altro ancora. Non a caso, un numero crescente di persone sta già utilizzando ChatGPT e altri bot AI simili per migliorare il proprio rendimento lavorativo.

Tuttavia, come visto nel caso Samsung, ChatGPT potrebbe immagazzinare informazioni preziose (come il codice sorgente) e diffonderle in rete. Proprio per una fuga di notizie avvenuta all'inizio di maggio, alcuni dipendenti hanno perso il posto di lavoro e ora l'azienda coreana ha bandito il chatbot dalla propria rete aziendale.

Samsung non è l'unica grande azienda che ha deciso di limitare l'uso delle AI. Anche Apple ha vietato ai dipendenti di utilizzare ChatGPT e grandi banche come Citigroup e JPMorgan hanno fatto lo stesso di recente.

Certo, è comodo far correggere in fretta qualcosa dal chatbot o far scrivere a qualcun altro delle noiosissime e-mail mentre ci si dedica ad altre attività produttive. Ma è importante ricordare che non state semplicemente gettando le informazioni nell'etere. Ogni volta che interagite con il chatbot state condividendo delle informazioni che verranno immagazzinate, rilette e riutilizzate, quindi occhio a condividere dati sensibili.

Quando posso utilizzare ChatGPT al lavoro? 

Ci sono dei casi in cui si può consigliare l'uso di ChatGPT sul posto di lavoro? Se non ci sono regole che impediscono di usare i chatbot nel vostro spazio di lavoro (ancora), non c'è nulla di male nel chiedere al bot di spiegare concetti che non capite, riassumere documenti lunghi in modo che possiate leggerli più facilmente o di analizzare dati pubblici. L'importante è premurarsi di condividere solo informazioni generiche, senza dare in pasto al chatbot dai sensibili o documenti privati dell'azienda.

Bisogna evitare, ad esempio, di fornire al chatbot il riassunto di una riunione importante piena di dettagli riservati. Non importa lo state usando dal browser o dall'app sul vostro iPhone; il bot potrebbe diffondere i vostri dati, quindi fate attenzione a ciò che scegliete di condividere con lui. Finché non avremo veri strumenti AI che non richiedano la connessione a Internet, nessuna informazione fornita al chatbot sarà mai veramente sicura.

Se volete restringere il campo di ciò che non dovreste condividere con ChatGPT, la risposta più facile è: tutto ciò che è personale. Evitate di dare informazioni che potrebbero ricondurre a voi o ai vostri beni, in sostanza tutto ciò che direste agli amici ma non ai colleghi, e ricordate che questa è una tecnologia neonata, all'inizio del suo processo evolutivo.

Non siamo sicuri di cosa accadrà in futuro, né di come verranno utilizzate le informazioni già in possesso di ChatGPT, né se queste verranno rese pubbliche o meno. 

Trattate ChatGPT come un collega di lavoro dalla lingua lunga e mantenete le distanze quando potete. Non è obbligatorio essere amichevoli con il chatbot, non ancora.

TOPICS
Marco Silvestri
Senior Editor

Marco Silvestri è un Senior Editor di Techradar Italia dal 2020. Appassionato di fotografia e gaming, ha assemblato il suo primo PC all'età di 12 anni e, da allora, ha sempre seguito con passione l'evoluzione del settore tecnologico. Quando non è impegnato a scrivere guide all'acquisto e notizie per Techradar passa il suo tempo sulla tavola da skate, dietro la lente della sua fotocamera o a scarpinare tra le vette del Gran Sasso.

Con il supporto di