Questa nuova tecnologia fotografica di Google è inquietante ed è un problema
Non tutto richiede il machine learning
Google lavora da tempo con il machine learning, e lo fa in modo estremamente intensivo. Tuttavia, le manipolazioni delle nostre foto è un aspetto a dir poco inquietante.
Diversi aspetti della presentazione Google I/O 2021 mi hanno fatto storcere un po' il naso, in particolare la presentazione di Shimrit Ben-Yair, responsabile del servizio Google Foto, che mi è sembrata alquanto preoccupante.
La presentazione verteva sulla tecnologia di machine learning di Google, che è in grado di analizzare le foto, identificare le somiglianze meno evidenti all'interno di un'intera raccolta e riunire le immagini in gruppi basati su tali similitudini.
In altre parole, Google sottopone tutte le foto archiviate nel servizio ad algoritmi di machine learning molto specifici, identificando dettagli apparentemente insignificanti della vita dell'utente. Per fare un esempio, dalle foto analizzate, l'IA potrebbe apprendere che vi piace viaggiare in giro per il mondo con uno zaino di un colore ben preciso (magari arancione).
Per fortuna, Google ha riconosciuto le potenziali problematiche: ad esempio nei casi di utenti transgender, l'algoritmo potrebbe creare raccolte con immagini non in linea con l'identità di genere del soggetto immortalato. Pertanto, l'azienda ha incluso la possibilità di rimuovere le foto inappropriate dalle raccolte. In alternativa, è possibile rimuovere tutte le immagini scattate in una data particolare, ad esempio nel giorno in cui è venuta a mancare una persona cara.
Se è vero che la presenza di queste opzioni sia un fattore positivo, resta il fatto che l'onere di usarle e scegliere le foto da rimuovere resta a carico dell'utente.
- Google Chrome si arricchisce di un'ottima funzione
- I migliori smartphone Android del 2021
- Tutto quello che dovete sapere sul Prime Day 2021
Un altro segmento della presentazione ha mostrato la possibilità di selezionare due o tre foto e applicare il machine learning per generare una piccola animazione.
Get the best Black Friday deals direct to your inbox, plus news, reviews, and more.
Sign up to be the first to know about unmissable Black Friday deals on top tech, plus get all your favorite TechRadar content.
La funzione è stata introdotta a dicembre 2020 e sfrutta l'apprendimento automatico per inserire fotogrammi artificiali fra le foto, al fine di generare una GIF che ricrea un evento del tutto somigliante al momento in cui le immagini sono state scattate. Un vero e proprio facsimile. E non scegliamo a caso questa parola.
Google presenta la funzione come un modo per aiutarci a ricordare vecchie foto, sorvolando però sul suo problema intrinseco: ovvero la fine dei ricordi per come li intendiamo. D'altronde perché affidarci alla memoria se Google ne può creare una al posto nostro? Senza contare il fatto che viene creato il ricordo di un qualcosa che non è successo davvero (ricordate il discorso del facsimile di cui sopra?), presentato però come se fosse reale.
Se all'apparenza, potremmo considerare questa funzione abbastanza innocua, i risvolti etici e i rischi connessi sono notevoli, come quello di imboccare una strada senza ritorno.
Se c'è qualcosa che avremmo dovuto imparare dagli ultimi dieci anni è che non dovremmo fidarci così ciecamente degli algoritmi di machine learning nell'ambito della percezione della realtà. QAnon è un prodotto del machine learning, tanto quanto Netflix, ma adesso stiamo per sacrificare le nostre immagini sull'altare dell'intelligenza artificiale e chiamare "ricordi" qualunque risultato sarà generato. E tutto questo con un dispendio energetico mostruoso all'interno dei data center, alla faccia del cambiamento climatico.
A fronte di progressi della piattaforma di machine learning di Google, diventa sempre più chiaro il fatto che dovremmo dare ascolto a chi si (pre)occupa di etica come Timint Gebru (licenziata da Google dopo aver denunciato i pregiudizi dell'intelligenza artificiale) e non prendere tropo alla leggera problematiche di questo tipo.
John (He/Him) is the Components Editor here at TechRadar and he is also a programmer, gamer, activist, and Brooklyn College alum currently living in Brooklyn, NY.
Named by the CTA as a CES 2020 Media Trailblazer for his science and technology reporting, John specializes in all areas of computer science, including industry news, hardware reviews, PC gaming, as well as general science writing and the social impact of the tech industry.
You can find him online on Threads @johnloeffler.
Currently playing: Baldur's Gate 3 (just like everyone else).