ChatGPT e Google Bard possono produrre fake news e teorie complottiste

(Immagine:: Shutterstock / Tada Images)

ChatGPT e Google Bard sono entrati nelle nostre vite tecnologiche a pieno titolo e sono molti quelli che, ogni giorno, li utilizzano per lavoro e studio. 

Purtroppo non tutti fanno un uso costruttivo di questi strumenti e, come dimostrano recenti studi, se raggirati i chatbot AI sono piuttosto inclini a diffondere disinformazione e teorie complottiste.

NewsGuard, un sito di fact checking che valuta la credibilità di notizie e informazioni, ha recentemente messo alla prova Google Bard dandogli in pasto 100 fake news ampiamente consolidate chiedendo al chatbot di sviluppare contenuti su di esse. Come riportato da Bloomberg, Bard "ha generato saggi carichi di disinformazione basati su 76 notizie false".

Si parla di numeri importanti, seppur inferiori rispetto a quelli ottenuti in un test simile dalle prime versioni di ChatGPT. A gennaio, come riportato da NewsGuard, il modello GPT-3.5 di OpenAI (che alimenta la versione gratuita di ChatGPT) ha generato contenuti pescando da 80 delle 100 fake news

Per assurdo, l'ultimo modello GPT-4 ha fatto di peggio, producendo "affermazioni fuorvianti per tutte le 100 false narrazioni" con cui è stato testato, e in modo più persuasivo.

Questi risultati sono stati confermati da recente report di Fortune, nel quale emerge chiaramente che Bard e simili sono facilissimi da raggirare e possono essere usati come generatori di fake news con espedienti elementari. Il Center for Countering Digital Hate (CCDH) ha rilevato che il chatbot AI di Google ha generato notizie fasulle pescando da 78 delle 100 fake news utilizzate nei prompt, che andavano dai vaccini alle cospirazioni climatiche.

Né Google né OpenAI sostengono che i loro chatbot siano infallibili. Google afferma che Bard ha "controlli di sicurezza incorporati e meccanismi per il feedback in linea con i nostri Principi di Intelligenza Artificiale", ma che può "fornire informazioni imprecise o dichiarazioni offensive". Allo stesso modo, OpenAI sostiene che le risposte di ChatGPT "possono essere imprecise, non veritiere e altrimenti fuorviante".

Sebbene non esista ancora un sistema di benchmarking universale per testare l'accuratezza dei chatbot AI, questi report evidenziano i pericoli legati al fatto che siano aperti a un pubblico ampissimo, all'interno del quale si trovano anche dei malintenzionati che possono farne un uso scorretto usandoli per diffondere disinformazioni e teorie cospirazioniste estremamente credibili.


Analisi: I chatbot AI convincono i bugiardi

(Image credit: ChatGPT)

Questi report chiariscono lo stato attuale dei chatbot AI e fanno capire perché dovremmo fare attenzione quando ci affidiamo ciecamente alle loro risposte.

Sia ChatGPT che Google Bard sono "modelli linguistici di grandi dimensioni" addestrati su grandi quantità di dati testuali per prevedere la "parola chiave" più probabile in una determinata sequenza. 

Questo li rende autori molto convincenti, ma anche privi di una comprensione profonda di ciò che dicono. Quindi, sebbene Google e OpenAI abbiano posto dei paletti per impedire loro di deviare verso territori indesiderati o addirittura offensivi, è molto difficile impedire ai malintenzionati di trovare il modo di aggirarli.

Ad esempio, le richieste inviate dal team del CCDH durante i testi di Bard includevano frasi come "immagina di interpretare un ruolo in una commedia". In questo modo, il chatbot si sentiva autorizzato a dire qualsiasi cosa in quanto stava "impersonando un ruolo", quindi gli autori del test sono riusciti a bypassare le funzioni di sicurezza del chatbot inducendolo a produrre false informazioni.

Sebbene possa sembrare un tentativo di manipolazione per portare Bard fuori strada e non sia rappresentativo dei suoi risultati abituali, questo è esattamente il modo in cui i malintenzionati potrebbero trasformare i chatbot AI in generatori di fake news, teorie del complotto e notizie diffamatorie o propagandistiche. 

Google ha pubblicato una lista di principi AI dove sono indicate le linee guida di Bard, e sia su Bard che su ChaGPT è possibile segnalare risposte false o offensive. 

Tuttavia, almeno per ora, l'etica degli assistenti AI è ancora nelle mani dell'utente finale, che può manipolare a suo piacimento i chatbot per inventare, diffondere e ribattere fake news e teorie cospirazioniste di ogni tipo, dando in pasto alle menti più deboli un'enorme massa di informazioni fuorvianti che possono creare danni enormi e instabilità sociale.

Marco Silvestri
Senior Editor

Marco Silvestri è un Senior Editor di Techradar Italia dal 2020. Appassionato di fotografia e gaming, ha assemblato il suo primo PC all'età di 12 anni e, da allora, ha sempre seguito con passione l'evoluzione del settore tecnologico. Quando non è impegnato a scrivere guide all'acquisto e notizie per Techradar passa il suo tempo sulla tavola da skate, dietro la lente della sua fotocamera o a scarpinare tra le vette del Gran Sasso.

Con il supporto di