ChatGPT non è una fonte affidabile, sono i dati a dirlo

A laptop screen on a green background showing the ChatGPT logo
(Immagine:: ChatGPT)

Negli ultimi mesi si è parlato (probabilmente un po' troppo) di come ChatGPT e altri chatbot con intelligenza artificiale (AI) simili, cambieranno il nostro modo di affrontare il lavoro e lo studio.

Molti osservatori hanno espresso le loro preoccupazioni sul tema, chiedendosi se i chatbot AI renderanno il mondo accademico obsoleto e faranno le veci degli esperti delle principali materie di studio.

Alcuni ricercatori della Purdue University, con sede a West Lafayette negli Stati Uniti, hanno finalmente risposto in modo definitivo a questa domanda in un documento di tredici pagine, arrivando alla conclusione che no, i chatbot AI non sanno tutto e in alcuni casi sono addirittura controproducenti.

Chatbot AI e disinformazione

L'articolo prende in esame delle domande a tema ingegneria del software, confrontando la veridicità delle risposte di ChatGPT con quelle degli utenti reali del popolare portale di domande e risposte sulla programmazione Stack Overflow.

Il chatbot AI ha risposto a 517 domande presenti sul sito e i risultati sono incontrovertibili.

Il 52% delle risposte di ChatGPT erano errate e, quando abbiamo chiesto a Stack Overflow di fare i conti per noi, ci hanno risposto che il 48% delle risposte del chatbot erano corrette.

Tutto fuorchè infallibile

I risultati parlano chiaro: l'AI non può essere considerata una fonte di conoscenza attendibile, e le implicazioni sono ovvie e pericolose. 

Sempre secondo questo studio, gran parte degli utenti che utilizzano i chatbot non si preoccupano del potenziale informativo. Nell'ambito del test è stato richiesto ai partecipanti di scegliere alla cieca una risposta e nel 39,34% dei casi non sono riusciti a identificare quelle prodotte dall'AI, preferendo comunque le risposte fornite da Stack Overflow.

Nella gran parte dei casi ChatGPT viene considerato infallibile grazie alle sue ottime doti dialettiche. Lo studio ha rilevato che, spesso, gli utenti accettavano le informazioni considerandole corrette dato che erano "complete, ben articolate e dall'aspetto umanoide".

Insomma, una bugia detta bene può passare facilmente per verità.

Fonte: ZDNet

Marco Silvestri
Senior Editor

Marco Silvestri è un Senior Editor di Techradar Italia dal 2020. Appassionato di fotografia e gaming, ha assemblato il suo primo PC all'età di 12 anni e, da allora, ha sempre seguito con passione l'evoluzione del settore tecnologico. Quando non è impegnato a scrivere guide all'acquisto e notizie per Techradar passa il suo tempo sulla tavola da skate, dietro la lente della sua fotocamera o a scarpinare tra le vette del Gran Sasso.

Con il supporto di