¿Te está mintiendo ChatGPT? Quizás, pero no de la forma que crees
Los errores de la IA son causados por los humanos, no por las máquinas.
Llevo casi un año escribiendo sobre la IA y hay algo que se repite constantemente. Cada pocas semanas aparece un titular que insinúa que la inteligencia artificial está tramando algo descarado o siniestro. Que los chatbots «mienten», «conspiran» o incluso intentan «seducir» a sus usuarios.
La sugerencia es siempre la misma: que las herramientas de IA no son solo programas pasivos, sino entidades con agencia, motivos ocultos o incluso deseos propios.
Lógicamente, sabemos que eso no es cierto. Pero emocionalmente, se nos queda grabado. Hay algo en la idea de que las máquinas mientan que nos fascina y nos inquieta. Entonces, ¿por qué estamos tan dispuestos a creerlo?
Tu chatbot no está tramando nada
James Wilson, especialista en ética de la IA y autor de Artificial Negligence, afirma que la forma en que hablamos de la IA es parte del problema.
Señala una entrevista reciente en la que Sam Altman, de OpenAI, le dijo a Tucker Carlson: «No hacen nada a menos que se les pida, ¿verdad? Es como si estuvieran ahí sentados esperando. No tienen sentido de la agencia ni de la autonomía. Cuanto más se les utiliza, creo, más se rompe la ilusión». »
"Es muy importante recordar esto, y mucha gente lo olvida", explica Wilson. "Esto se debe a la naturaleza antropomórfica de la interfaz que se ha desarrollado para ellos".
En otras palabras, cuando no los usamos, no hacen nada. «No están conspirando contra la humanidad, sentados en una oficina acariciando un gato blanco como un villano de Bond», dice Wilson.
Regístrese para recibir noticias de última hora, reseñas, opiniones, ofertas de alta tecnología y más.
Alucinaciones, no mentiras
Lo que la gente llama «mentir» es en realidad un defecto de diseño, y tiene una explicación.
Los modelos de lenguaje grandes (LLM), como ChatGPT, se entrenan con enormes cantidades de texto. Pero como esos datos no se etiquetaron cuidadosamente, el modelo no puede distinguir entre la realidad y la ficción.
"ChatGPT es una herramienta, sin duda muy compleja, pero al fin y al cabo no es más que un sistema probabilístico de completado de palabras envuelto en una atractiva interfaz conversacional", afirma Wilson. Ya hemos escrito anteriormente sobre cómo ChatGPT sabe qué decir.
El problema más profundo, argumenta, radica en la forma en que se construyeron estos sistemas. «La verdadera fuente del problema proviene del descuido y la negligencia de los proveedores de modelos. Mientras recopilaban todos los datos (legal o ilegalmente) para entrenar sus LLM, no se tomaron el tiempo de etiquetarlos. Esto significa que no hay forma de que el modelo distinga la realidad de la ficción».
Por eso se producen las llamadas alucinaciones. No son mentiras en el sentido humano, solo predicciones erróneas.
Y, sin embargo, señala Wilson, las historias que contamos sobre el comportamiento de la IA a menudo están tomadas de la cultura pop: "¿La IA intenta escapar? Ex Machina. ¿La IA intenta replicarse a sí misma? Transcendence. ¿La IA intenta seducirte? Piensa en cualquier novela romántica o thriller erótico de mala calidad".
Colocar la bomba y luego presumir de haberla desactivado
Por supuesto, la historia se complica cuando las propias empresas de IA empiezan a hablar de engaño.
A principios de este año, OpenAI y Apollo Research publicaron un artículo sobre la «desalineación oculta». En experimentos controlados, encontraron indicios de que los modelos avanzados a veces se comportaban de forma engañosa.
Por ejemplo, obtenían deliberadamente malos resultados en una prueba cuando pensaban que obtener muy buenos resultados podría provocar su cierre. OpenAI lo denomina «intrigar». Cuando una IA finge seguir las reglas mientras persigue en secreto otro objetivo.
Así que parece que la IA miente, ¿verdad? Bueno, no del todo. No lo hace porque quiera causarte daño. Es solo un síntoma de los sistemas que hemos construido.
"Así que, en esencia, se trata de un problema creado por ellos mismos", afirma Wilson. "Estos fragmentos de "investigación" que están produciendo son algo irónicos. Básicamente, están declarando que no pasa nada porque han encontrado una forma de desactivar la bomba que ellos mismos colocaron. Ahora les viene bien porque les hace parecer falsamente concienzudos y preocupados por la seguridad".
En resumen, las empresas descuidaron el etiquetado de sus datos, crearon modelos que premian las respuestas seguras pero inexactas y ahora publican investigaciones sobre el «intrigante» como si acabaran de descubrir el problema.
El verdadero peligro que se avecina
Wilson afirma que el verdadero riesgo no es que ChatGPT te mienta hoy. Es lo que ocurre cuando la cultura de Silicon Valley de «moverte rápido, romper cosas» sigue añadiendo nuevas capas de autonomía a estos sistemas defectuosos.
"El último paradigma de la industria, la IA agencial, significa que ahora estamos creando agentes sobre estos LLM con la autoridad y la autonomía para actuar en el mundo real", explica Wilson. "Sin pruebas rigurosas y barreras de protección externas, ¿cuánto tiempo pasará antes de que uno de ellos intente cumplir las fantasías que aprendió de su entrenamiento sin etiquetar?".
Así que el peligro no es el llamado chatbot "mentiroso" de hoy. Es el agente mal probado del mañana, suelto en el mundo real.
Sigue a TechRadar en Google News y añádenos como fuente preferida para recibir nuestras noticias, reseñas y opiniones de expertos en tus feeds. ¡Asegúrate de hacer clic en el botón "Seguir"!
Y, por supuesto, también puedes seguir a TechRadar en TikTok para recibir noticias, reseñas y unboxings en formato de vídeo, así como actualizaciones periódicas a través de WhatsApp.
También puedes leer...
Becca is a contributor to TechRadar, a freelance journalist and author. She’s been writing about consumer tech and popular science for more than ten years, covering all kinds of topics, including why robots have eyes and whether we’ll experience the overview effect one day. She’s particularly interested in VR/AR, wearables, digital health, space tech and chatting to experts and academics about the future. She’s contributed to TechRadar, T3, Wired, New Scientist, The Guardian, Inverse and many more. Her first book, Screen Time, came out in January 2021 with Bonnier Books. She loves science-fiction, brutalist architecture, and spending too much time floating through space in virtual reality.
- Antonio QuijanoEditor
