ChatGPT e Google Bard possono produrre fake news e teorie complottiste

Two phones next to eachother, one with ChatGPT open and one with Google
(Immagine:: Shutterstock / Tada Images)

ChatGPT e Google Bard sono entrati nelle nostre vite tecnologiche a pieno titolo e sono molti quelli che, ogni giorno, li utilizzano per lavoro e studio. 

Purtroppo non tutti fanno un uso costruttivo di questi strumenti e, come dimostrano recenti studi, se raggirati i chatbot AI sono piuttosto inclini a diffondere disinformazione e teorie complottiste.

Sebbene non esista ancora un sistema di benchmarking universale per testare l'accuratezza dei chatbot AI, questi report evidenziano i pericoli legati al fatto che siano aperti a un pubblico ampissimo, all'interno del quale si trovano anche dei malintenzionati che possono farne un uso scorretto usandoli per diffondere disinformazioni e teorie cospirazioniste estremamente credibili.


Analisi: I chatbot AI convincono i bugiardi

(Image credit: ChatGPT)

Questi report chiariscono lo stato attuale dei chatbot AI e fanno capire perché dovremmo fare attenzione quando ci affidiamo ciecamente alle loro risposte.

Sia ChatGPT che Google Bard sono "modelli linguistici di grandi dimensioni" addestrati su grandi quantità di dati testuali per prevedere la "parola chiave" più probabile in una determinata sequenza. 

Questo li rende autori molto convincenti, ma anche privi di una comprensione profonda di ciò che dicono. Quindi, sebbene Google e OpenAI abbiano posto dei paletti per impedire loro di deviare verso territori indesiderati o addirittura offensivi, è molto difficile impedire ai malintenzionati di trovare il modo di aggirarli.

Ad esempio, le richieste inviate dal team del CCDH durante i testi di Bard includevano frasi come "immagina di interpretare un ruolo in una commedia". In questo modo, il chatbot si sentiva autorizzato a dire qualsiasi cosa in quanto stava "impersonando un ruolo", quindi gli autori del test sono riusciti a bypassare le funzioni di sicurezza del chatbot inducendolo a produrre false informazioni.

Sebbene possa sembrare un tentativo di manipolazione per portare Bard fuori strada e non sia rappresentativo dei suoi risultati abituali, questo è esattamente il modo in cui i malintenzionati potrebbero trasformare i chatbot AI in generatori di fake news, teorie del complotto e notizie diffamatorie o propagandistiche. 

Google ha pubblicato una lista di principi AI dove sono indicate le linee guida di Bard, e sia su Bard che su ChaGPT è possibile segnalare risposte false o offensive. 

Tuttavia, almeno per ora, l'etica degli assistenti AI è ancora nelle mani dell'utente finale, che può manipolare a suo piacimento i chatbot per inventare, diffondere e ribattere fake news e teorie cospirazioniste di ogni tipo, dando in pasto alle menti più deboli un'enorme massa di informazioni fuorvianti che possono creare danni enormi e instabilità sociale.

Marco Silvestri
Senior Editor

Marco Silvestri è un Senior Editor di Techradar Italia dal 2020. Appassionato di fotografia e gaming, ha assemblato il suo primo PC all'età di 12 anni e, da allora, ha sempre seguito con passione l'evoluzione del settore tecnologico. Quando non è impegnato a scrivere guide all'acquisto e notizie per Techradar passa il suo tempo sulla tavola da skate, dietro la lente della sua fotocamera o a scarpinare tra le vette del Gran Sasso.

Con il supporto di