Skip to main content

Questa nuova tecnologia fotografica di Google è inquietante ed è un problema

Google Foto
(Image credit: Google)

Google lavora da tempo con il machine learning, e lo fa in modo estremamente intensivo. Tuttavia, le manipolazioni delle nostre foto è un aspetto a dir poco inquietante.

Diversi aspetti della presentazione Google I/O 2021 mi hanno fatto storcere un po' il naso, in particolare la presentazione di Shimrit Ben-Yair, responsabile del servizio Google Foto, che mi è sembrata alquanto preoccupante.

La presentazione verteva sulla tecnologia di machine learning di Google, che è in grado di analizzare le foto, identificare le somiglianze meno evidenti all'interno di un'intera raccolta e riunire le immagini in gruppi basati su tali similitudini.

Google mostra l'algoritmo fotografico di Google

(Image credit: Google)

In altre parole, Google sottopone tutte le foto archiviate nel servizio ad algoritmi di machine learning molto specifici, identificando dettagli apparentemente insignificanti della vita dell'utente. Per fare un esempio, dalle foto analizzate, l'IA potrebbe apprendere che vi piace viaggiare in giro per il mondo con uno zaino di un colore ben preciso (magari arancione).

Per fortuna, Google ha riconosciuto le potenziali problematiche: ad esempio nei casi di utenti transgender, l'algoritmo potrebbe creare raccolte con immagini non in linea con l'identità di genere del soggetto immortalato. Pertanto, l'azienda ha incluso la possibilità di rimuovere le foto inappropriate dalle raccolte. In alternativa, è possibile rimuovere tutte le immagini scattate in una data particolare, ad esempio nel giorno in cui è venuta a mancare una persona cara.

Se è vero che la presenza di queste opzioni sia un fattore positivo, resta il fatto che l'onere di usarle e scegliere le foto da rimuovere resta a carico dell'utente.

Un altro segmento della presentazione ha mostrato la possibilità di selezionare due o tre foto e applicare il machine learning per generare una piccola animazione. 

La funzione è stata introdotta a dicembre 2020 e sfrutta l'apprendimento automatico per inserire fotogrammi artificiali fra le foto, al fine di generare una GIF che ricrea un evento del tutto somigliante al momento in cui le immagini sono state scattate. Un vero e proprio facsimile. E non scegliamo a caso questa parola.

Momento cinematico di Google Foto

(Image credit: Google)

Google presenta la funzione come un modo per aiutarci a ricordare vecchie foto, sorvolando però sul suo problema intrinseco: ovvero la fine dei ricordi per come li intendiamo. D'altronde perché affidarci alla memoria se Google ne può creare una al posto nostro? Senza contare il fatto che viene creato il ricordo di un qualcosa che non è successo davvero (ricordate il discorso del facsimile di cui sopra?), presentato però come se fosse reale.

Se all'apparenza, potremmo considerare questa funzione abbastanza innocua, i risvolti etici e i rischi connessi sono notevoli, come quello di imboccare una strada senza ritorno.

Se c'è qualcosa che avremmo dovuto imparare dagli ultimi dieci anni è che non dovremmo fidarci così ciecamente degli algoritmi di machine learning nell'ambito della percezione della realtà. QAnon è un prodotto del machine learning, tanto quanto Netflix, ma adesso stiamo per sacrificare le nostre immagini sull'altare dell'intelligenza artificiale e chiamare "ricordi" qualunque risultato sarà generato. E tutto questo con un dispendio energetico mostruoso all'interno dei data center, alla faccia del cambiamento climatico.

A fronte di progressi della piattaforma di machine learning di Google, diventa sempre più chiaro il fatto che dovremmo dare ascolto a chi si (pre)occupa di etica come Timint Gebru (licenziata da Google dopo aver denunciato i pregiudizi dell'intelligenza artificiale) e non prendere tropo alla leggera problematiche di questo tipo.