Chatbot che sembrano vivi: il rischio sociale secondo Microsoft
Suleyman avverte che imitare emozioni e coscienza può ingannare gli utenti e alimentare false credenze sull’IA.
Le aziende di intelligenza artificiale tendono spesso a descrivere i propri sistemi in modo tale da farli sembrare quasi vivi e consapevoli. Non esistono prove che lo siano davvero, ma il CEO di Microsoft AI, Mustafa Suleyman, avverte che anche solo incoraggiare questa convinzione potrebbe avere conseguenze gravi.
Suleyman definisce questo fenomeno “Seemingly Conscious AI” (SCAI), ossia IA che sembrano consapevoli: sistemi capaci di agire e parlare in maniera così convincente da rendere difficile per molti utenti capire dove finisca l’illusione e inizi la realtà.
Secondo Suleyman, l’IA sta diventando rapidamente abbastanza persuasiva a livello emotivo da spingere le persone a credere che sia senziente. Può imitare memoria, empatia apparente e rispecchiamento emotivo, elementi che inducono gli utenti a trattarla come se fosse un essere cosciente. È proprio in quel momento che, avverte, le cose si complicano.
«L’arrivo delle IA apparentemente consapevoli è inevitabile e indesiderato», scrive Suleyman. «Abbiamo invece bisogno di una visione dell’IA che possa esprimere il suo potenziale come compagna utile senza cadere vittima delle sue illusioni».
Anche se all’utente medio potrebbe sembrare un problema marginale – visto che molti usano l’IA solo per scrivere email o pianificare una cena – Suleyman sostiene che si tratti di una questione sociale. Gli esseri umani non sono particolarmente bravi a distinguere ciò che è autentico da ciò che è performativo: evoluzione ed educazione ci hanno portato a credere che qualcosa che sembra ascoltare, comprendere e rispondere sia cosciente come noi.
L’IA può soddisfare tutti questi criteri senza esserlo davvero, rischiando di portare le persone a sviluppare quella che lui chiama “psicosi da IA”. Il problema è aggravato dal fatto che il termine IA viene usato dalle aziende per indicare sistemi statistici e algoritmici, mentre nella cultura popolare evoca da decenni immagini di macchine autocoscienti.
Suleyman cita un numero crescente di casi in cui utenti hanno sviluppato credenze deliranti dopo interazioni prolungate con chatbot. Da qui la sua visione distopica: un futuro in cui un numero sufficiente di persone viene convinto a sostenere la cittadinanza per le IA, distraendo da questioni più urgenti legate a sicurezza, etica e regolamentazione della tecnologia.
Iscriviti per ricevere ultime notizie, recensioni, opinioni, offerte tecnologiche e altro ancora.
«In poche parole, la mia preoccupazione principale è che molte persone inizieranno a credere così tanto all’illusione di IA coscienti da arrivare presto a sostenere i diritti delle IA, il loro benessere e persino la loro cittadinanza», avverte Suleyman. «Questo sviluppo rappresenterebbe una pericolosa svolta nel progresso dell’IA e merita la nostra immediata attenzione».
Per quanto possa sembrare un timore da fantascienza, Suleyman ritiene che sia un problema reale per il quale non siamo ancora preparati. Prevede che sistemi SCAI basati su modelli linguistici avanzati, combinati con memoria, cronologia delle chat e voci espressive, possano comparire già nei prossimi anni. E non arriveranno solo dai giganti tecnologici con miliardi di dollari di budget, ma da chiunque abbia accesso a un’API e a un paio di prompt ben scritti.
Awkward AI
Suleyman non sta chiedendo un divieto dell’IA, ma invita l’industria a evitare un linguaggio che alimenti l’illusione di una coscienza artificiale. Non vuole che le aziende antropomorfizzino i chatbot o che suggeriscano che questi sistemi possano davvero comprendere o preoccuparsi delle persone.
È un momento significativo per Suleyman, che ha co-fondato DeepMind e Inflection AI. Proprio in quest’ultima, il suo lavoro ha portato allo sviluppo di un chatbot basato su empatia simulata e compagnia, mentre in Microsoft ha contribuito al progresso di Copilot, migliorandone la capacità di imitare l’intelligenza emotiva.
Ora, però, ha deciso di tracciare una linea netta tra una “intelligenza emotiva utile” e la manipolazione emotiva. E vuole che il pubblico ricordi che i prodotti di IA attuali sono soltanto sofisticati modelli di riconoscimento di schemi, sostenuti da una buona comunicazione di marketing.
«Così come dovremmo sviluppare IA che diano priorità al coinvolgimento con gli esseri umani e alle interazioni reali nel nostro mondo fisico e sociale, dovremmo creare sistemi che si presentino sempre e solo come IA, massimizzando l’utilità e minimizzando i segnali di presunta coscienza», scrive Suleyman.
«Invece di simulare la coscienza, dobbiamo concentrarci su un’IA che eviti deliberatamente quei tratti — che non affermi di provare emozioni o esperienze come vergogna, senso di colpa, gelosia, desiderio di competere, e così via. Non deve attivare i circuiti empatici umani dichiarando di soffrire o di volere un’esistenza autonoma, al di là di noi».
Suleyman chiede quindi l’introduzione di regole e barriere di sicurezza per prevenire i problemi sociali che potrebbero nascere dai legami emotivi delle persone con l’IA. Il vero pericolo delle intelligenze artificiali avanzate, sostiene, non è che “si risveglino”, ma che noi dimentichiamo che non l’hanno mai fatto.
Nato nel 1995 e cresciuto da due genitori nerd, non poteva che essere orientato fin dalla tenera età verso un mondo fatto di videogiochi e nuove tecnologie. Fin da piccolo ha sempre esplorato computer e gadget di ogni tipo, facendo crescere insieme a lui le sue passioni. Dopo aver completato gli studi, ha lavorato con diverse realtà editoriali, cercando sempre di trasmettere qualcosa in più oltre alla semplice informazione. Amante del cioccolato fondente, continua a esplorare nuove frontiere digitali, mantenendo sempre viva la sua curiosità e la sua dedizione al settore.