ChatGPT vietato da sempre più aziende, ma è un errore

ChatGPT Chat with AI or Artificial Intelligence. woman chatting with a smart AI or artificial intelligence using an artificial intelligence chatbot developed by OpenAI.
(Immagine:: Shutterstock/FAMILY STOCK)

Le aziende stanno vietando sempre più spesso l'uso di strumenti di intelligenza artificiale generativa come ChatGPT, adducendo preoccupazioni per la privacy, la sicurezza e i danni alla propria reputazione.

In un nuovo report pubblicato da BlackBerry, risulta che il 66% delle aziende intervistate ha dichiarato che proibirà il famigerato chatbot AI e altri strumenti simili sul posto di lavoro, mentre un ulteriore 76% dei responsabili IT accetta che i datori di lavoro siano autorizzati a controllare il software che i dipendenti possono utilizzare per svolgere le proprie mansioni.

Inoltre, il 69% delle organizzazioni che hanno implementato i divieti ha dichiarato che saranno permanenti o a lungo termine, visto il rischio di danni che questi strumenti rappresentano per la sicurezza e la privacy dell'azienda.

Un conflitto AI

Tuttavia c'è un conflitto, in quanto solo la metà (54%) delle organizzazioni riconosce che un'IA potente come ChatGPT potrebbe aumentare la produttività, grazie alla sua capacità di svolgere una serie di compiti molto più rapidamente di quanto potrebbe fare un essere umano. 

Sebbene le ITDM concordino con il diritto di vietare tali strumenti, il 66% ritiene che tali divieti equivalgano a un "controllo eccessivo" sui dispositivi aziendali e BYO.

Quando si considera l'uso dell'IA generativa per scopi di cybersicurezza, emerge un quadro diverso. Il 74% si è detto favorevole al suo utilizzo per questo motivo, forse nel tentativo di contrastare l'uso dell'IA da parte degli aggressori, dato che chiunque può accedere a questi strumenti e anche chi non ha competenze tecniche può sviluppare e distribuire malware con relativa facilità.

Considerati i vantaggi che strumenti come ChatGPT possono conferire, Shishir Singh, CTO della Cybersecurity di BlackBerry, consiglia un approccio più misurato:

"Vietare le applicazioni di IA generativa sul posto di lavoro può significare annullare una serie di potenziali vantaggi aziendali. Con la maturazione delle piattaforme e l'entrata in vigore delle normative, si potrebbe introdurre una certa flessibilità nelle politiche organizzative. La chiave sarà disporre degli strumenti giusti per la visibilità, il monitoraggio e la gestione delle applicazioni utilizzate sul posto di lavoro".

Senza dubbio le aziende sono state spaventate dalle storie di lavoratori che hanno fatto trapelare dati sensibili su ChatGPT - in particolare i dipendenti di Samsung, che hanno inserito informazioni relative a riunioni riservate e dati tecnici nel Large Language Model. Queste informazioni sono ora nei server di OpenAI, gli sviluppatori di ChatGPT, e per il gigante dell'elettronica non c'è modo di cancellarle.    

Per attenuare i timori di fuga di dati privati, Microsoft sta progettando una versione più sicura del modello GPT, che non invierà i dati aziendali ai server OpenAI pubblici.

Giulia Di Venere

Giulia Di Venere è Editor Senior per TechRadar Italia e lavora con orgoglio al progetto da quando è nato.

Laureata in Lingue e Letterature Straniere all’Università Ca’ Foscari di Venezia, è una grande appassionata di cinema, libri, cucina e cinofilia.

Da sempre considera la scrittura lo strumento più efficace per comunicare, e scrivere per fare informazione, ogni giorno, è per lei motivo di grande soddisfazione.

Copre una grande varietà di tematiche, dagli smartphone ai gadget tecnologici per la casa, gestendo la pubblicazione dei contenuti editoriali e coordinando le attività della redazione.

Dalla personalità un po’ ambivalente, ama viaggiare tanto quanto passare il tempo libero nella tranquillità della propria casa, in compagnia del suo cane e di un buon libro.

Con il supporto di