ChatGPT quando non sa le cose se le inventa (proprio come certe persone)

(Immagine:: studiostoks / Shutterstock)

La scorsa settimana, Microsoft ha annunciato la fusione tra OpenAI e il suo motore di ricerca Bing.

A pochi giorni dal lancio sono comparse in rete una serie di risposte errate o completamente campate all'aria ricevute dagli utenti.

Il ricercatore e blogger indipendente Dmitiri Berton ha scritto un post nel quale mostra diversi errori commessi dal nuovo motore di ricerca Microsoft. Tra i casi più eclatanti, l'intelligenza artificiale ha inventato di sana pianta alcune informazioni, ha citato descrizioni di bar e ristoranti che non esistono e ha riportato dati finanziari errati nelle risposte. 

Ad esempio, Berton ha provato a cercare un aspirapolvere per animali domestici ricevendo un elenco di pro e contro per un "Bissel Pet Hair Eraser Handheld Vacuum", con alcuni commenti piuttosto forti sul presunto rumore eccessivo, sul cavo troppo corto e sull'aspirazione limitata. 

Berton osserva che l'IA di Bing "è stata così gentile" da fornire le fonti e, dopo averle confrontate con il testo prodotto dal chatbot, il ricercatore ha scoperto che nell'articolo non si fa alcun riferimento alla potenza di aspirazione o alla rumorosità, mentre la recensione più popolare del prodotto su Amazon ne sottolinea proprio la silenziosità.

Inoltre, nelle recensioni nessuno si lamenta della "lunghezza ridotta del cavo" perché... è un modello senza cavo. In sostanza il chatbot di Bing ha fornito una descrizione errata o completamente inventata.

Berton non è l'unico a sottolineare i numerosi errori che Bing AI sembra commettere. L'utente di Reddit SeaCream8095 ha pubblicato uno screenshot di una conversazione in cui il chatbot chiedeva all'utente un indovinello "romantico" e affermava che la risposta aveva otto lettere. L'utente ha indovinato e ha risposto "dolcezza". 

Fin qui tutto bene, ma dopo aver fatto notare più volte nel corso della conversazione che "dolcezza" ha nove lettere, non otto, Bing AI ha rivelato che non stava contando due lettere per poi insistere che aveva comunque ragione.

how_to_make_chatgpt_block_you from r/ChatGPT

Vi abbiamo già parlato degli strafalcioni commessi dal chatbot di Bing AI nel rispondere alle domande di alcuni utenti. In alcuni casi il motore di ricerca è persino andato in tilt, mostrando atteggiamenti aggressivi e in alcuni casi andando in blocco.

L'utente Reddit Jobel ha scoperto che Bing, a volte, pensa che gli utenti siano chatbot e non esseri umani. L'aspetto più interessante (e forse un po' triste) è l'esempio di Bing che impazzisce alla domanda: "pensi di essere senziente?", e inizia a ripetere "non lo sono" all'infinito.

L'esperienza di ricerca aggiornata di Bing è stata presentata agli utenti come uno strumento in grado di fornire risposte complete, riassumere ciò che si sta cercando e offrire un'esperienza complessivamente più interattiva. Sebbene possa raggiungere questo obiettivo con domande semplici, in numerose occasioni non riesce è ancora in grado di gestire una conversazione complessa.

In rete ci sono centinaia di esempi come quelli sopra citati e ne arriveranno sicuramente altri man mano che nuovi utenti utilizzeranno il chatbot. Finora, al netto di alcuni aspetti sicuramente utili, il motore di ricerca con AI integrata non sta facendo un figurone.

Marco Silvestri
Senior Editor

Marco Silvestri è un Senior Editor di Techradar Italia dal 2020. Appassionato di fotografia e gaming, ha assemblato il suo primo PC all'età di 12 anni e, da allora, ha sempre seguito con passione l'evoluzione del settore tecnologico. Quando non è impegnato a scrivere guide all'acquisto e notizie per Techradar passa il suo tempo sulla tavola da skate, dietro la lente della sua fotocamera o a scarpinare tra le vette del Gran Sasso.

Con il supporto di
TOPICS