ChatGPT y otras IAs no son el problema, nosotros lo somos

Una mano robótica que se acerca a una señal amarilla en la que se lee "Precaución" en letras negras.
(Crédito de imagen: Getty Images)

No vivo con miedo a la IA. En cambio, me da miedo la gente y lo que harán con chatbots como ChatGPT y las IAs como Stable Diffusion, igual que temo lo que harán con cualquier otra tecnología o invento con un poder potencial. Un ejemplo es cómo algunos están utilizando la inteligencia artificial y los chatbots para generar imágenes e historias falsas y, naturalmente, presentarlas como hechos.

Es horrible, vergonzoso y peligroso.

Lo que no pretende es ser preciso: está disponible sobre todo como entretenimiento, y sus creadores se cuidan de declarar que "¡Todo lo que dicen los personajes es inventado! No te fíes de todo lo que dicen ni te los tomes demasiado en serio".

De nuevo, la idea de que esto es culpa de las IA (no de los torpes humanos) es ridícula. La culpa es, como siempre, de nuestra condición humana. La gente no sabe utilizar responsablemente una cosa buena, mala o indiferente.

Esta semana le pedí, por probar algo constructivo, que resolviera la crisis climática. Las ideas de ChatGPT sobre adoptar una dieta basada en plantas eran interesantes pero, como la gente señaló en Twitter, ChatGPT omitió muchos otros factores reales que alteran el clima. Como siempre, tuve cuidado de presentar esto como la respuesta de ChatGPT y no utilizarla, por ejemplo, en mi reportaje.

Claro, yo no soy un reportero del clima, pero ¿y si lo fuera? Sería una locura por mi parte mezclar lo que "aprendí" de ChatGPT sobre el cambio climático en una noticia que pretende informar a millones de personas.

A eso me refiero. ChatGPT y otros chatbots similares no sustituyen a la investigación y la información reales y originales. En periodismo solemos decir: "Ve a la fuente". Eso significa que hay que encontrar el origen de la información o la entrevista y/o realizar la entrevista uno mismo y utilizarla como base de la historia.

En pocas palabras, nada de lo que produzca un chatbot de IA puede utilizarse de forma seria. Honestamente, no me importa si la revista alemana era la máxima expresión de periodismo amarillo y a nadie le importa. Pero a todos debería importarnos, porque alguien que no sea necesariamente un mal periodista acabará tropezando con algo que retuitee estúpidamente esas citas generadas por IA y posiblemente intente presentarlas como un hecho.

Dentro de unas décadas, puede que se cite a Schumacher diciendo cosas de las que nunca habló en su vida. ¿Sabremos la diferencia?

La cuestión es que tenemos que trazar una línea roja ya. Los chatbots de IA son herramientas recreativas que pueden ayudarnos a crear productos, tal vez código, y ofrecer ideas y dirección, pero no se puede confiar en ellos como fuentes. No se puede, no le des más vueltas. Así que no lo hagas. Por favor.

TOPICS
Antonio Romero

Editor en TechRadar España de día, guitarrista de blues y friki de los cómics de noche. ¿O era al revés?


Aportaciones de