Chatbot che sembrano vivi: il rischio sociale secondo Microsoft

Mustafa at Microsoft 50th Anniversary event in front of Windows logo
(Immagine:: Microsoft)

Le aziende di intelligenza artificiale tendono spesso a descrivere i propri sistemi in modo tale da farli sembrare quasi vivi e consapevoli. Non esistono prove che lo siano davvero, ma il CEO di Microsoft AI, Mustafa Suleyman, avverte che anche solo incoraggiare questa convinzione potrebbe avere conseguenze gravi.

Suleyman definisce questo fenomeno “Seemingly Conscious AI” (SCAI), ossia IA che sembrano consapevoli: sistemi capaci di agire e parlare in maniera così convincente da rendere difficile per molti utenti capire dove finisca l’illusione e inizi la realtà.

Secondo Suleyman, l’IA sta diventando rapidamente abbastanza persuasiva a livello emotivo da spingere le persone a credere che sia senziente. Può imitare memoria, empatia apparente e rispecchiamento emotivo, elementi che inducono gli utenti a trattarla come se fosse un essere cosciente. È proprio in quel momento che, avverte, le cose si complicano.

Awkward AI

Suleyman non sta chiedendo un divieto dell’IA, ma invita l’industria a evitare un linguaggio che alimenti l’illusione di una coscienza artificiale. Non vuole che le aziende antropomorfizzino i chatbot o che suggeriscano che questi sistemi possano davvero comprendere o preoccuparsi delle persone.

È un momento significativo per Suleyman, che ha co-fondato DeepMind e Inflection AI. Proprio in quest’ultima, il suo lavoro ha portato allo sviluppo di un chatbot basato su empatia simulata e compagnia, mentre in Microsoft ha contribuito al progresso di Copilot, migliorandone la capacità di imitare l’intelligenza emotiva.

Ora, però, ha deciso di tracciare una linea netta tra una “intelligenza emotiva utile” e la manipolazione emotiva. E vuole che il pubblico ricordi che i prodotti di IA attuali sono soltanto sofisticati modelli di riconoscimento di schemi, sostenuti da una buona comunicazione di marketing.

«Così come dovremmo sviluppare IA che diano priorità al coinvolgimento con gli esseri umani e alle interazioni reali nel nostro mondo fisico e sociale, dovremmo creare sistemi che si presentino sempre e solo come IA, massimizzando l’utilità e minimizzando i segnali di presunta coscienza», scrive Suleyman.

«Invece di simulare la coscienza, dobbiamo concentrarci su un’IA che eviti deliberatamente quei tratti — che non affermi di provare emozioni o esperienze come vergogna, senso di colpa, gelosia, desiderio di competere, e così via. Non deve attivare i circuiti empatici umani dichiarando di soffrire o di volere un’esistenza autonoma, al di là di noi».

Suleyman chiede quindi l’introduzione di regole e barriere di sicurezza per prevenire i problemi sociali che potrebbero nascere dai legami emotivi delle persone con l’IA. Il vero pericolo delle intelligenze artificiali avanzate, sostiene, non è che “si risveglino”, ma che noi dimentichiamo che non l’hanno mai fatto.

Nato nel 1995 e cresciuto da due genitori nerd, non poteva che essere orientato fin dalla tenera età verso un mondo fatto di videogiochi e nuove tecnologie. Fin da piccolo ha sempre esplorato computer e gadget di ogni tipo, facendo crescere insieme a lui le sue passioni. Dopo aver completato gli studi, ha lavorato con diverse realtà editoriali, cercando sempre di trasmettere qualcosa in più oltre alla semplice informazione. Amante del cioccolato fondente, continua a esplorare nuove frontiere digitali, mantenendo sempre viva la sua curiosità e la sua dedizione al settore.