OpenAI: bannati account che usavano ChatGPT per disinformazione e sorveglianza
OpenAI ha bloccato diversi account coinvolti in campagne di disinformazione e sorveglianza, principalmente legate alla Cina.

- OpenAI ha chiuso diversi account che utilizzavano ChatGPT per attività dannose.
- Sono state individuate campagne di disinformazione e sorveglianza che sfruttavano l'AI.
- L'uso malevolo dell'intelligenza artificiale è in crescita e OpenAI sta intervenendo per contrastarlo.
OpenAI ha confermato di aver recentemente identificato e bloccato un gruppo di account coinvolti in campagne dannose.
Secondo OpenAI, gli account vietati facevano parte delle operazioni "Peer Review" e "Sponsored Discontent" e probabilmente provengono dalla Cina. Questi utenti sembrano aver utilizzato, o tentato di utilizzare, modelli sviluppati da OpenAI e da un altro laboratorio di intelligenza artificiale statunitense per un’operazione di sorveglianza e per la creazione di articoli in spagnolo con contenuti anti-americani.
L’intelligenza artificiale ha favorito l’aumento della disinformazione, diventando uno strumento utile per i gruppi di minaccia che cercano di destabilizzare le elezioni e minare la democrazia in paesi politicamente divisi o instabili. Le campagne sponsorizzate dagli stati hanno sfruttato questa tecnologia a loro vantaggio.
Sorveglianza e disinformazione
La campagna "Peer Review" ha utilizzato ChatGPT per generare "descrizioni dettagliate, coerenti con presentazioni di vendita, di uno strumento di monitoraggio dei social media che gli operatori affermavano di aver usato per fornire rapporti in tempo reale sulle proteste in Occidente ai servizi di sicurezza cinesi", ha confermato OpenAI.
Come parte di questa operazione di sorveglianza, gli attori della minaccia hanno impiegato il modello per "modificare e correggere il codice e generare materiali promozionali" per presunti strumenti di monitoraggio dei social media basati sull'intelligenza artificiale. Tuttavia, OpenAI non è riuscita a individuare post sui social media riconducibili alla campagna.
Gli account ChatGPT coinvolti nella campagna "Sponsored Discontent" sono stati invece utilizzati per generare commenti in inglese e articoli di notizie in spagnolo, in linea con tattiche di "spamouflage", principalmente con retorica anti-americana. L'obiettivo sembrava essere quello di alimentare il malcontento in America Latina, con particolare attenzione a Perù, Messico ed Ecuador.
Non è la prima volta che attori sponsorizzati dallo stato cinese vengono identificati nell'uso di queste tattiche per diffondere disinformazione. Alla fine del 2024, una campagna di influenza cinese è stata scoperta mentre prendeva di mira gli elettori statunitensi con migliaia di immagini e video generati dall'intelligenza artificiale, perlopiù di bassa qualità e contenenti informazioni false.
Sei un professionista? Iscriviti alla nostra Newsletter
Iscriviti alla newsletter di Techradar Pro per ricevere tutte le ultime notizie, opinioni, editoriali e guide per il successo della tua impresa!
Nato nel 1995 e cresciuto da due genitori nerd, non poteva che essere orientato fin dalla tenera età verso un mondo fatto di videogiochi e nuove tecnologie. Fin da piccolo ha sempre esplorato computer e gadget di ogni tipo, facendo crescere insieme a lui le sue passioni. Dopo aver completato gli studi, ha lavorato con diverse realtà editoriali, cercando sempre di trasmettere qualcosa in più oltre alla semplice informazione. Amante del cioccolato fondente, continua a esplorare nuove frontiere digitali, mantenendo sempre viva la sua curiosità e la sua dedizione al settore.