ChatGPT y otras IAs no son el problema, nosotros lo somos

Una mano robótica que se acerca a una señal amarilla en la que se lee "Precaución" en letras negras.
(Crédito de imagen: Getty Images)

No vivo con miedo a la IA. En cambio, me da miedo la gente y lo que harán con chatbots como ChatGPT y las IAs como Stable Diffusion, igual que temo lo que harán con cualquier otra tecnología o invento con un poder potencial. Un ejemplo es cómo algunos están utilizando la inteligencia artificial y los chatbots para generar imágenes e historias falsas y, naturalmente, presentarlas como hechos.

Es horrible, vergonzoso y peligroso.

Recientemente, una revista alemana (Die Aktuelle) publicó lo que parecía ser una entrevista nueva y exclusiva con el ex piloto de Fórmula 1 Michael Schumacher, que resultó herido en un accidente de esquí en el 2013, y la publicó en su portada. La gente no tardó mucho en darse cuenta de que la entrevista era un montaje total, que puede haber engañado a más crédulos de lo normal porque las respuestas de Schumacher fueron generadas por un chatbot de inteligencia artificial llamado character.ai.

Character.ai es un rival de ChatGPT que permite hablar con personajes famosos vivos y muertos. Aunque no está a la altura de las IAs de Bards y Bing, es lo suficientemente inteligente como para recrear conversaciones con un amplio abanico de personajes históricos y hacerlo de forma bastante convincente.

Lo que no pretende es ser preciso: está disponible sobre todo como entretenimiento, y sus creadores se cuidan de declarar que "¡Todo lo que dicen los personajes es inventado! No te fíes de todo lo que dicen ni te los tomes demasiado en serio".

Naturalmente, alguien tenía que abusar.

En los últimos meses, he pasado mucho tiempo con los principales chatbots, incluidos ChatGPT, Google Bard y Bing AI, pidiéndoles que crearan todo tipo de contenidos creativos, tontos y, en su mayoría, inútiles (lo último, un guión que mezcla Parque Jurásico y La Lista de Schindler... no preguntéis). No me tomo nada al pie de la letra, sabiendo que todavía hay una tendencia a las alucinaciones de los chatbots de IA que quieres presentar la ficción como un hecho.

Lo que no me imaginaba es que alguien empezaría a utilizar el contenido escupido por estas IAs para compartirlo como historias originales, artículos, vídeos e incluso música de artistas existentes y fallecidos hace tiempo. No sólo es desagradable, sino peligroso.

De nuevo, la idea de que esto es culpa de las IA (no de los torpes humanos) es ridícula. La culpa es, como siempre, de nuestra condición humana. La gente no sabe utilizar responsablemente una cosa buena, mala o indiferente.

Como especie, somos propensos a los excesos, y cualquier cosa placentera que se nos ofrezca, ya sea sexo, dinero, drogas o IA, es una señal para hacer más de ello... mucho más.

Actualmente estamos tan obsesionados con las increíbles capacidades de estos chatbots que, como cualquier adición, no podemos dejar de usarlos. Lo admito, tengo la costumbre de cargar ChatGPT (la versión GPT-3) y hacerle una mezcla de preguntas importantes y ridículas, con lo que acabo echando unas buenas risas en cada sesión. Pero jamás se me ocurre dar más veracidad a sus respuestas que a un capítulo de Dragon Ball.

Esta semana le pedí, por probar algo constructivo, que resolviera la crisis climática. Las ideas de ChatGPT sobre adoptar una dieta basada en plantas eran interesantes pero, como la gente señaló en Twitter, ChatGPT omitió muchos otros factores reales que alteran el clima. Como siempre, tuve cuidado de presentar esto como la respuesta de ChatGPT y no utilizarla, por ejemplo, en mi reportaje.

Claro, yo no soy un reportero del clima, pero ¿y si lo fuera? Sería una locura por mi parte mezclar lo que "aprendí" de ChatGPT sobre el cambio climático en una noticia que pretende informar a millones de personas.

A eso me refiero. ChatGPT y otros chatbots similares no sustituyen a la investigación y la información reales y originales. En periodismo solemos decir: "Ve a la fuente". Eso significa que hay que encontrar el origen de la información o la entrevista y/o realizar la entrevista uno mismo y utilizarla como base de la historia.

En pocas palabras, nada de lo que produzca un chatbot de IA puede utilizarse de forma seria. Honestamente, no me importa si la revista alemana era la máxima expresión de periodismo amarillo y a nadie le importa. Pero a todos debería importarnos, porque alguien que no sea necesariamente un mal periodista acabará tropezando con algo que retuitee estúpidamente esas citas generadas por IA y posiblemente intente presentarlas como un hecho.

Dentro de unas décadas, puede que se cite a Schumacher diciendo cosas de las que nunca habló en su vida. ¿Sabremos la diferencia?

La cuestión es que tenemos que trazar una línea roja ya. Los chatbots de IA son herramientas recreativas que pueden ayudarnos a crear productos, tal vez código, y ofrecer ideas y dirección, pero no se puede confiar en ellos como fuentes. No se puede, no le des más vueltas. Así que no lo hagas. Por favor.

Antonio Romero

Editor en TechRadar España de día, guitarrista de blues y friki de los cómics de noche. ¿O era al revés?

Aportaciones de