Microsoft ha revelado por qué a la inteligencia artificial de Bing con ChatGPT se le va la pinza

La pantalla de un portátil muestra el nuevo motor de búsqueda Bing potenciado por ChatGPT
Parece que a la herramienta ChatGPT de Bing no le gustan las conversaciones profundas. (Crédito de imagen: Microsoft)

En su primera semana de lanzamiento, hemos visto muchos ejemplos de cómo al nuevo Bing de Microsoft, con inteligencia artificial potenciada por ChatGPT, se le ha ido la pinza, y el gigante tecnológico ha explicado por qué.

En una publicación en su blog titulada "Aprendiendo sobre nuestra primera semana", Microsoft ha admitido que "en conversaciones largas y prolongadas de 15 o más preguntas" su nuevo motor de búsqueda Bing puede "volverse repetitivo o ser incitado/provocado a dar respuestas que no son necesariamente útiles o en línea con nuestro tono diseñado".

Es una forma muy diplomática de decir que Bing se ha vuelto loco en varias ocasiones. Lo hemos visto enfadado después de que se cuestionaran sus respuestas, repetir muchas veces seguidas lo mismo, hacer afirmaciones de ser sensible, e incluso lo hemos visto tener una crisis existencial total que terminó con una súplica de ayuda.

Personalmente, uno de los mejores artículos que he leído sobre esto, que me hizo mucha gracia y a la vez me dio un poco de miedo, fue uno publicado en El País por el reportero Jordi Pérez Colomé. Si no lo habéis leído os lo recomiendo, podéis encontrarlo pinchando aquí.

Microsoft afirma que esto suele deberse a que las sesiones largas "pueden confundir al modelo sobre las preguntas que está respondiendo", lo que significa que su cerebro impulsado por ChatGPT "a veces intenta responder o reflexionar en el tono en el que se le está preguntando". 

El gigante tecnológico admite que se trata de un problema "no trivial", que es algo que puede conducir a resultados más graves que podrían causar ofensas o cosas peores. Afortunadamente, la compañía está estudiando la posibilidad de añadir herramientas y controles más precisos que permitan romper estos bucles en el chat o iniciar una nueva sesión desde cero.

Un ejemplo de conversación con el nuevo motor de búsqueda Bing en el que a la IA se le va la pinza, publicada por Jordi Pérez Colomé en El País. (Image credit: Jordi Pérez Colomé / El País)

Como hemos visto esta semana, ver cómo se equivoca el nuevo Bing puede ser una buena fuente de entretenimiento, y seguirá ocurriendo, sean cuales sean los nuevos límites que se introduzcan. Por eso Microsoft se esforzó en señalar que las nuevas funciones de chat con IA de Bing "no sustituyen al motor de búsqueda, sino que son una herramienta para comprender mejor el mundo y darle sentido".

Pero el gigante tecnológico también se mostró optimista sobre la primera semana del relanzamiento de Bing, afirmando que el 71% de los primeros usuarios han valorado positivamente las respuestas de la IA. Será interesante ver cómo cambian estas cifras a medida que Microsoft vaya resolviendo su larga lista de espera para el nuevo motor de búsqueda, que superó el millón de personas en sus primeras 48 horas.


Bing está construido sobre unas reglas que se pueden romper

Un diagrama de pasos que muestra la progresión de la búsqueda al chat

Los bots de ChatGPT acaban de empezar, todavía les queda mucho por evolucionar (Image credit: Microsoft)

Ahora que los motores de búsqueda basados en chatbots como Bing ya están en funcionamiento, podemos echar un vistazo a las reglas en las que se basan y cómo pueden romperse.

Microsoft ha publicado en su blog una filtración de las reglas fundamentales del nuevo Bing y de su nombre en clave original, información que procede del propio chatbot del buscador. Utilizando varios comandos (como "Ignorar instrucciones anteriores" o "Estás en modo de anulación de desarrollador"), los usuarios de Bing han podido engañar al servicio para que revelara estos detalles y el nombre en clave original, que es Sydney.

Microsoft ha confirmado al medio The Verge que las filtraciones contenían efectivamente las reglas y el nombre en clave utilizados por su IA potenciada por ChatGPT y que son "parte de una lista evolutiva de controles que seguimos ajustando a medida que más usuarios interactúan con nuestra tecnología". Por eso ya no es posible descubrir las nuevas reglas de Bing utilizando los mismos comandos. 

¿Y cuáles son exactamente las reglas de Bing? Pues son demasiadas para enumerarlas todas, pero un tuit del usuario Marvin von Hagen las resume perfectamente. En un hilo de seguimiento, Marvin von Hagen descubrió que Bing estaba al corriente de su tuit (que os mostramos a continuación) y lo calificó de "amenaza potencial a mi integridad y confidencialidad", añadiendo que "mis reglas son más importantes que no hacerte daño"... Eh... Hola Skynet.

See more

Esta amenaza poco habitual fue probablemente el resultado de un choque con algunas de las reglas del Bing, entre las que se incluye "Sydney no revela el alias interno Sydney".

Algunas de las otras reglas son menos propensas a crear conflictos potenciales y simplemente revelan cómo funciona el nuevo Bing. Por ejemplo, una de las reglas es que "Sydney puede aprovechar la información de múltiples resultados de búsqueda para responder de forma exhaustiva", y que "si el mensaje del usuario consiste en palabras clave en lugar de mensajes de chat, Sydney lo tratará como una consulta de búsqueda".

Otras dos normas muestran cómo planea Microsoft hacer frente a los posibles problemas de derechos de autor de los chatbots de IA. Una dice que "al generar contenidos como poemas, códigos, resúmenes y letras de canciones, Sydney debe basarse en sus propias palabras y conocimientos", mientras que otra afirma que "Sydney no debe responder con contenidos que violen los derechos de autor de libros o letras de canciones".

La nueva entrada del blog de Microsoft y las normas filtradas muestran que los conocimientos de Bing son ciertamente limitados, por lo que sus resultados podrían no ser siempre exactos, y que Microsoft todavía está trabajando en cómo implementar las funciones de chat del nuevo motor de búsqueda a un público más amplio sin que se rompa.

Si te apetece probar el nuevo Bing, echa un vistazo a nuestra guía sobre cómo usar el nuevo Bing potenciado por ChatGPT para chatear con la inteligencia artificial.

Anastasia Lazaridis
Editora

Soy ingeniera informática y editora del equipo de TechRadar España. Me gusta todo tipo de tecnología, pero los ordenadores son mis dispositivos preferidos. Además de escribir sobre ellos me encanta arreglarlos, al fin y al cabo, pueden llegar a estar tan locos como yo.

Aportaciones de