L'intelligenza artificiale è vera intelligenza?

Artificial Intelligence
(Immagine:: Pixabay)

In questi anni si è sentito sempre più parlare di intelligenza artificiale e di algoritmi intelligenti tanto che ormai queste espressioni sono diventate di uso comune, e anche nel marketing dei prodotti si tende ad esaltare spesso questo aspetto. 

Tuttavia, la comunità scientifica ancora non concorda universalmente su una definizione unica di cosa sia l’intelligenza. Stando alla definizione più accreditata possiamo definire l’intelligenza come il complesso di facoltà psichiche e mentali che consentono di pensare, comprendere o spiegare i fatti o le azioni, elaborare modelli astratti della realtà, intendere e farsi intendere dagli altri, giudicare, e adattarsi all’ambiente. In base a ciò, l'intelligenza artificiale può essere definita come intelligenza dimostrata dalle macchine. Ma ciò che conta come intelligenza, e come l'intelligenza viene implementata in diversi tipi di macchine, robot e software, varia da una disciplina all'altra e nel tempo.

Un gruppo crescente di ricercatori ritiene che ad oggi l'intelligenza artificiale (IA) sia fortemente limitata: da un lato è troppo attaccata a tendenze guidate dai dati elaborati con tecniche di deep learning e dall'altro troppo attaccata a ciò che gli esseri umani credono che sia l’intelligenza, che spesso riflette un pensiero vago sulle capacità cognitive umane.

Questi studiosi promuovono un approccio diverso: bisognerebbe prendere ispirazione dai complessi comportamenti e dalle capacità degli organismi biologici e concentrarsi su come essi interagiscono con il mondo. Questa visione prende il nome di “Physical Artificial Intelligence” (intelligenza artificiale fisica abbreviata in PAI) e, come suggerisce il nome, si riferisce all'uso di tecniche di IA per risolvere problemi che coinvolgono l'interazione diretta con il mondo fisico, osservando, per esempio, il mondo attraverso sensori o modificandolo attraverso attuatori. 

Come definire l’Intelligenza Artificiale 

Ci sono molte possibili definizioni di IA. La prima risale al 1955 ed era per lo più legata al concetto di intelligenza umana. Si pensava, infatti, che una macchina, per essere definita “intelligente”, dovesse “usare un linguaggio, formare astrazioni e concetti, risolvere tipi di problemi riservati agli umani e migliorare se stessa.” Queste complesse forme d’intelligenza sono state inizialmente affrontate con metodi basati sulla manipolazione di simboli. Al contrario, gli approcci ispirati alle neuroscienze, come il connessionismo e le reti neurali, si sono concentrati sull'apprendimento e sulle rappresentazioni, che hanno portato ai metodi di deep learning basati sui dati; quei metodiche oggi sono prominenti praticamente in ogni settore immaginabile.

In effetti, molte persone oggi considerano l'IA come sinonimo di deep learning, dato l'impatto di quest’ultimo su applicazioni come il riconoscimento delle immagini, l'elaborazione del linguaggio e il riconoscimento del parlato, e nella sua utilità per il riconoscimento dei modelli nei dati provenienti dalla scienza e dall'industria. 

Tuttavia, il deep learning nel suo stato attuale ha dei limiti: tende ad essere affamato di dati, i calcoli sono pesanti, è incline a errori inaspettati (come mostrato nel nostro articolo sulle IA avversarie), e infine si rivela inefficiente per gran parte dei calcoli basati sulla cognizione e sul comportamento degli esseri viventi. Infatti, si è rivelato possibile battere i campioni del mondo a Go e a scacchi, ma è molto più impegnativo imparare le abilità basilari, cognitive e motorie, di un bambino. 

Il paradosso di Moravec 

Un'osservazione che viene talvolta definita come il paradosso di Moravec, originato negli anni '80 dai ricercatori di IA e robotica, sostiene che le competenze considerate di alto livello di intelligenza, come il ragionamento, si sono sviluppate solo di recente nel corso dell’evoluzione e richiedono relativamente pochi calcoli. Al contrario, le capacità sensomotorie e le forme di regolazione del corpo come l'omeostasi, che sono generalmente considerate meno intelligenti o addirittura non intelligenti, sono altamente evolute, spesso inconsce, e richiedono risorse computazionali molto maggiori. Il paradosso di Moravec può spiegare perché è più facile progettare un sistema di IA per trovare la mossa migliore in una partita a scacchi piuttosto che creare una mano robotica abile in grado di raccogliere i pezzi e metterli sulla scacchiera.  

Sempre negli anni '80, Rodney Brooks teorizza un nuovo approccio che pone le basi della PAI. Secondo questo approccio, un sistema intelligente dovrebbe avere le sue rappresentazioni radicate nel mondo fisico. Così, piuttosto che avere un modello interno del mondo, basato su dati e conoscenze tramessegli da qualcuno, un robot dovrebbe usare il suo corpo e i suoi sensori per aggiornare i suoi sistemi di controllo e i suoi comportamenti diretti all'obiettivo. Brooks nel suo articolo "Gli elefanti non giocano a scacchi", sottolinea che il mondo è il suo modello migliore e che "il trucco è quello di percepirlo in modo appropriato e abbastanza spesso".

Da allora, sono stati fatti molti progressi nella robotica per affrontare questa sfida. In particolare nell'ultimo decennio è stato fondamentale un approccio interdisciplinare atto a risolvere i vari problemi incontrati.

L’intelligenza artificiale è vera intelligenza? 

Sì e no, tutto dipende da come da come definiamo l’intelligenza e da cosa rappresenta per noi un comportamento intelligente. Come abbiamo visto, se consideriamo come comportamenti intelligenti il saper risolvere problemi o il ragionare in maniera astratta, allora sì, possiamo dire che alcune macchine sono intelligenti. Tuttavia, se consideriamo azioni che per noi, come per la maggior parte delle specie viventi, sono banali come respirare o imparare a camminare allora la strada da fare è ancora lunga e nessuna macchina è per ora riuscita in questa impresa.

Dal prossimo futuro possiamo aspettarci che i concetti di intelligenza e intelligenza artificiale continueranno ad evolversi e grazie all’integrazione di diverse discipline come informatica, biologia, scienza dei materiali ecc… avremo l’opportunità di creare macchine intelligenti con una complessità sempre maggiore.

Luigi Famiglietti

Luigi Famiglietti è Editor presso Techradar Italia dal 2020. Da sempre appassionato di scienza e tecnologia, ha deciso di raccontare la continua evoluzione di questo mondo e le sue diverse sfaccettature.

Ha anche lavorato in un progetto applicativo mirato all’individuazione e valutazione di tecniche in grado di migliorare la somministrazione, l’assorbimento e il potenziale immunogenico di vaccini genetici a base di DNA.

Ama viaggiare, suonare il pianoforte e la fotografia. Inoltre, gli piace trascorrere parte del suo tempo libero a giocare con gli amici al pc.