Molti credono che l'intelligenza artificiale sia cosciente come una persona

AI Brain
(Immagine:: Getty Images)

Quando si interagisce con ChatGPT e altri strumenti di IA generativa conversazionale, questi elaborano i vostri input attraverso algoritmi per comporre una risposta che può sembrare provenire da un essere senziente, nonostante la realtà del funzionamento dei grandi modelli linguistici (LLM). Due terzi degli intervistati per , uno studio dell'Università di Waterloo, ritengono comunque che i chatbot AI siano in qualche modo coscienti, superando il test di Turing per convincerli che un'AI è equivalente a un essere umano in termini di coscienza.

L'IA generativa, incarnata dal lavoro di OpenAI su ChatGPT, ha fatto passi da gigante negli ultimi anni. L'azienda e i suoi rivali parlano spesso di una visione dell'intelligenza artificiale generale (AGI) con un'intelligenza simile a quella umana. OpenAI ha persino una nuova scala per misurare quanto i loro modelli siano vicini a raggiungere l'AGI. Tuttavia, anche gli esperti più ottimisti non ritengono che i sistemi AGI saranno autocoscienti o capaci di vere emozioni. Tuttavia, delle 300 persone che hanno partecipato allo studio, il 67% ha dichiarato di credere che il ChatGPT possa ragionare, provare emozioni ed essere in qualche modo consapevole della propria esistenza.

È emersa anche una notevole correlazione tra la frequenza di utilizzo degli strumenti di intelligenza artificiale e la probabilità di percepire la coscienza al loro interno. Questo testimonia quanto ChatGPT sia bravo a imitare gli esseri umani, ma non significa che l'IA si sia risvegliata. L'approccio conversazionale di ChatGPT probabilmente la fa sembrare più umana, anche se nessun modello di IA funziona come un cervello umano. E anche se OpenAI sta lavorando a un modello di IA in grado di svolgere ricerche in modo autonomo chiamato Strawberry, questo è ancora diverso da un'IA consapevole di ciò che sta facendo e perché.

"Mentre la maggior parte degli esperti nega che le attuali IA possano essere coscienti, la nostra ricerca dimostra che per la maggior parte del pubblico la coscienza delle IA è già una realtà", ha spiegato Clara Colombatto, docente di psicologia dell'Università di Waterloo e co-conduttrice dello studio. "Questi risultati dimostrano il potere del linguaggio, perché una conversazione da sola può portarci a pensare che un agente che ha un aspetto e un funzionamento molto diverso dal nostro possa avere una mente".

AI Consciousness Survey

(Image credit: Neuroscience of)

Disservizio al cliente

La convinzione della coscienza dell'IA potrebbe avere importanti implicazioni sul modo in cui le persone interagiscono con gli strumenti di IA. Il lato positivo è che incoraggia le buone maniere e rende più facile fidarsi di ciò che fanno gli strumenti, il che potrebbe renderli più facili da integrare nella vita quotidiana. Ma la fiducia comporta dei rischi, che vanno da un'eccessiva dipendenza da questi strumenti per il processo decisionale fino, all'estremo, a una dipendenza emotiva dall'IA e a una riduzione delle interazioni umane.

I ricercatori intendono approfondire i fattori specifici che inducono le persone a pensare che l'IA abbia una coscienza e che cosa questo significhi a livello individuale e sociale. Verrà inoltre effettuato uno studio a lungo termine su come questi atteggiamenti cambiano nel tempo e in base al background culturale. Comprendere la percezione pubblica della coscienza dell'IA è fondamentale non solo per lo sviluppo di prodotti di IA, ma anche per i regolamenti e le norme che ne disciplinano l'uso.

"Oltre alle emozioni, la coscienza è legata alle capacità intellettuali che sono essenziali per la responsabilità morale: la capacità di formulare piani, di agire intenzionalmente e di avere un autocontrollo sono elementi fondamentali dei nostri sistemi etici e legali", ha detto Colombatto. "Questi atteggiamenti pubblici dovrebbero quindi essere una considerazione chiave nella progettazione e nella regolamentazione dell'IA per un uso sicuro, insieme al consenso degli esperti".

Leggi anche

Eric Hal Schwartz
Contributor

Eric Hal Schwartz is a freelance writer for TechRadar with more than 15 years of experience covering the intersection of the world and technology. For the last five years, he served as head writer for Voicebot.ai and was on the leading edge of reporting on generative AI and large language models. He's since become an expert on the products of generative AI models, such as OpenAI’s ChatGPT, Anthropic’s Claude, Google Gemini, and every other synthetic media tool. His experience runs the gamut of media, including print, digital, broadcast, and live events. Now, he's continuing to tell the stories people want and need to hear about the rapidly evolving AI space and its impact on their lives. Eric is based in New York City.