Le 5 grandi paure del "Padrino delle AI": il mondo è davvero in pericolo?

Bad AI
(Immagine:: Getty Images)

Quasi dieci anni fa il dottor Geoffrey Hinton, vincitore del Premio Turing e ora ex dipendente di Google, è diventato noto per la sua frase: "Ora capisco come funziona il cervello!" pronunciata di fronte ai suoi studenti e riferita ai meccanismi di apprendimento dell'Intelligenza Artificiale. 

Ora che le AI stanno prendendo piede, proprio colui che venne definito da molti il "Padrino dell'AI" ha lasciato Google per mettere in guardia il mondo sui pericoli di questa tecnologia.

In una recente intervista con The New York Times, Hinton ha espresso forti preoccupazioni sulla rapida espansione delle AI, affermando che "è difficile capire come si possa impedire ai malintenzionati di usarla per fare del male".

C'è una linea diretta che collega il lavoro pionieristico di Hinton, durato decenni, alle reti neurali dei chatbot moderni (ChatGPT, Google Bard, Bing AI). Proprio le sue scoperte sul tema, più di dieci anni fa, hanno spinto Google a coinvolgerlo nello sviluppo di sistemi di deep learning di nuova generazione per aiutare i computer a interpretare immagini, testi e discorsi come fanno gli esseri umani.

Parlando con Wired nel 2014, Hinton era chiaramente entusiasta delle sue scoperte: "Mi emoziono molto ogni volta che scopriamo un nuovo modo per migliorare le reti neurali quando questo è strettamente legato al funzionamento del cervello".

Tuttavia, lil Dr. Hinton che ha parlato con il The New York Times pochi giorni fa sembra aver cambiato radicalmente opinione. Nell'intervista, lo scienziato si è focalizzato nel delineare tutti i modi in cui l'intelligenza artificiale potrebbe mettere in pericolo il mondo in cui viviamo.

Abbiamo riassunto i 5 punti cardine del suo discorso:

La competizione può indurre a rischiare troppo

Anche se aziende come Microsoft, Google e OpenAI hanno spesso dichiarato pubblicamente di adottare un approccio conservativo nello sviluppo dell'AI e dei chatbot, il Dr. Hinton teme che l'incremento esponenziale della concorrenza possa spingere i competitor a rischiare per ottenere un vantaggio.

E ha chiaramente ragione: all'inizio di quest'anno abbiamo raccontato gli sforzi di Google per il lancio del suo chatbot Bard, uscito in fretta e furia per non rimanere troppo indietro rispetto a Bing e al suo motore di ricerca AI alimentato da ChatGPT.

La domanda da porsi è: le aziende del settore saranno davvero in grado di mantenere un approccio etico lasciando da parte il profitto per limitare rischi collaterali legati alle AI? Il dottor Hinton non è convinto.

Sarà impossibile distinguere il vero dal falso

Il dottor Hinton teme che la proliferazione dell'intelligenza artificiale causerà la diffusione di una marea di contenuti falsi online. Non si tratta tanto di una preoccupazione futura, quanto di una constatazione dal momento che ogni giorno sui social vediamo nuovi video deep fake, immagini falsificate e persino fotografie generate dalle AI che vengono scambiate per vere e vincono concorsi fotografici internazionali.

Hinton afferma che questo è solo l'inizio e, probabilmente, ha ragione. A meno che Google, Microsoft, OpenAI e altri non cerchino di frenare il fenomeno, a breve non sarà più tanto facile distinguere il vero dal falso, perlomeno online.

Mercato del lavoro a rischio

Il Dr. Hinton ha detto a chiare lettere al NYT che l'AI è destinata a sostituire l'uomo in alcuni ambiti lavorativi.

Molti di noi hanno utilizzato ChatBot come Bard e ChatGPT per scrivere presentazioni, mail e persino per programmare. Nella maggior parte dei casi i risultati sono ancora scadenti, ma la qualità è già abbastanza buona e visto il ritmo a cui si evolvono le AI, è facile pensare che a breve saranno perfettamente in grado di svolgere questi e altri incarichi.

Ci sono già decine di romanzi generati dalle AI in vendita su Amazon e il sindacato degli sceneggiatori statunitensi (Writers Guild of America) ha espresso la preoccupazione che, in mancanza di un accordo su un nuovo contratto, gli studios potrebbero esternalizzare il loro lavoro alle AI. 

Anche se non ci sono ancora stati licenziamenti di massa legati direttamente alle AI, la crescita di questi potenti strumenti sta portando alcuni datori a rivalutare la propria forza lavoro. Se si considera il possibile risparmio economico che potrebbero ottenere alcune aziende nell'impiego delle AI, si fa presto a capire il pericolo che corre il mercato del lavoro attuale.

Un cervello pericoloso

Uno dei tratti distintivi delle reti neurali e dell'intelligenza artificiale è la capacità di utilizzare vaste porzioni di dati per apprendere automaticamente nuove conoscenze.

Tra le conseguenze indesiderate di questo potere, di fatto molto simile a quello del cervello umano, c'è il fatto che l'AI può attingere a qualsiasi fonte e imparare nozioni "non previste". Un'intelligenza artificiale che si autodetermina potrebbe fare leva su queste conoscenze ed evolversi da sola. 

Secondo il dottor Hinton, un'IA in grado non solo di programmare, ma anche di eseguire la propria programmazione, rappresenta un pericolo e potrebbe portare a esiti indesiderati.

L'AI sarà più intelligente di noi, ma meno empatica

Le AI attuali sembrano spesso più intelligenti dell'uomo, ma come abbiamo già sperimentato (fatti inventati, risposte errate, tilt momentanei) sono ancora ben lontane dall'essere all'altezza delle nostre menti più brillanti. Il Dr. Hinton ritiene che il giorno in cui le AI ci supereranno in intelligenza si stia avvicinando rapidamente e molto più velocemente di quanto avesse previsto inizialmente.

L'intelligenza artificiale potrebbe essere in grado di fingere l'empatia, ma non potrà mai provarla realmente, ed è da qui che proviene il pericolo. Un sistema, per quanto super-intelligente, non potrà mai calcolare l'impatto delle sue scelte sulla vita degli esseri umani (pensate all'ambito medico).

Sebbene gli avvertimenti del Dr. Hinton siano in netto contrasto con il suo entusiasmo iniziale per il settore tecnologico che ha pratciamente inventato, alcune delle cose che ha detto a Wired nel 2014 fanno ancora riflettere "Non siamo più la frangia lunatica. Ora siamo il nucleo dei pazzi".

Marco Silvestri
Senior Editor

Marco Silvestri è un Senior Editor di Techradar Italia dal 2020. Appassionato di fotografia e gaming, ha assemblato il suo primo PC all'età di 12 anni e, da allora, ha sempre seguito con passione l'evoluzione del settore tecnologico. Quando non è impegnato a scrivere guide all'acquisto e notizie per Techradar passa il suo tempo sulla tavola da skate, dietro la lente della sua fotocamera o a scarpinare tra le vette del Gran Sasso.

Con il supporto di