La nueva tecnología fotográfica de Google da mucho repelús y es muy problemática

Google Photos
(Crédito de imagen: Google)

Google tiene una gigantesca tecnología de aprendizaje automático, por lo que no es de extrañar que la compañía la esté aplicando a cada dato que le proporcionamos, pero hay algo en jugar con nuestras fotos que se pasa de la raya, sin importar lo bonito que sea el lazo que Google intenta ponerle. 

Hubo muchas cosas sobre el discurso principal de Google I / O 2021 que tocaron un tema extraño; se celebraba que la IA tuviera principios, debido al tratamiento de su antiguo especialista en ética de IA, el Dr. Timnit Gebru, que llevó a la compañía a mentalizar a sus científicos para "ser más positivos" sobre la IA. 

Pero fue la parte del discurso de apertura de Shimrit Ben-Yair, directora de Google Photos, la que pareció particularmente desconcertante. Durante su presentación, mostró cómo la tecnología de aprendizaje automático de Google era capaz de analizar todas tus fotos, identificar similitudes menos obvias en tu colección y clasificarlas así en grupos.

Google demuestra cómo funciona su algoritmo de fotos de Google

(Image credit: Google)

Lo cual quiere decir que Google está pasando cada foto que le das por algunos algoritmos de aprendizaje automático muy específicos, identificando así detalles muy concretos sobre tu vida, como el hecho de que te gusta viajar por el mundo con una mochila naranja en particular, por ejemplo. 

Afortunadamente, Google al menos reconoce que esto podría ser problemático si, por ejemplo, eres transgénero y el algoritmo de Google decide que quiere crear una colección con fotos tuyas que incluyan las que no se alinean con tu identidad de género. Google entiende que esto podría ser doloroso para ti, por lo que tienes la opción de eliminar la foto ofensiva de las próximas colecciones. O bien, puedes pedirle que elimine cualquier foto tomada en una fecha específica que pueda ser dolorosa, como el día en que murió un ser querido. Y aunque lo ideal sería que directamente no se incluyera nada así, la responsabilidad sigue siendo solo tuya, usuario, para no variar. ¿Qué importa herir los sentimientos de unos pocos cuando Google puede implementar las nuevas funciones que nadie estaba pidiendo?

Después se llegó a la parte de la presentación donde Google tomó una selección de dos o tres fotos seguidas (como cuando estás haciendo muchas fotos para intentar que en una todos los de grupo salgan con los ojos abiertos) y se aplicó el aprendizaje automático para generar una pequeña "fotografía cinematográfica" con ellas. Esta función, introducida por primera vez en diciembre de 2020, utiliza el aprendizaje automático para insertar fotogramas autogenerados entre esas fotos para crear esencialmente un GIF que es una recreación del evento. Fuerte énfasis en "recreación".

Momento cinematográfico de Google Fotos

(Image credit: Google)

Google ha creado esto para ayudarte a recordar fotos antiguas, pero eso no es lo que es; es el comienzo del fin de la reminiscencia tal como la conocemos. ¿Por qué confiar en tus recuerdos cuando Google puede crear uno para ti? No importa el hecho de que se esté creando un registro de algo que en realidad no sucedió y se presente como si hubiera sucedido. 

Claro, puedes haber parpadeado entre esas dos fotos, o algo así, y no es como si Google te fuera a sacar tomando drogas en una fiesta, cuando en absoluto hiciste algo así. Pero cuando se trata de lo que es ético y lo que no lo es, no hay lugar para "más o menos". Estos son los tipos de elecciones que nos llevan por caminos que no queremos seguir, y cada paso en este camino es difícil de desandar. 

Si hay algo que de verdad, de verdad, deberíamos haber aprendido en la última década, es a no confiar tan ciegamente en los algoritmos de aprendizaje automático que tienen el poder de deformar nuestra percepción de la realidad. QAnon es tanto un producto del aprendizaje automático como lo es Netflix, pero ahora vamos a poner nuestros álbumes de fotos en el altar de la IA y llamar "recuerdos" a lo que sea que salga de ahí. Todo mientras se gasta una enorme cantidad de energía real ejecutando todos estos algoritmos en los centros de datos a medida que el cambio climático avanza cada vez más. 

Con cada nuevo avance en la plataforma de aprendizaje automático de Google, se vuelve cada vez más evidente que realmente deberían escuchar lo que los especialistas en ética como el Dr. Gebru están tratando de decirles, y es aún más evidente que no tienen interés en hacerlo.

Antonio Romero

Editor en TechRadar España de día, guitarrista de blues y friki de los cómics de noche. ¿O era al revés?