ChatGPT ha superado la prueba de Turing y si no estás asustado, es que no sabes lo que es

a robot speaking with a sitting person
(Crédito de imagen: Shutterstock)

A pesar de que acaba de lanzar ChatGPT-4, OpenAI ya está trabajando en la quinta iteración de la inmensamente popular aplicación de chat, GPT-5. Según un nuevo informe de BGR, podríamos ver esas importantes actualizaciones tan pronto como a finales de año.

Un hito, en particular, podría estar al alcance de la mano si esto resulta ser cierto: la capacidad de ser indistinguible de los humanos en una conversación. O lo que es lo mismo, superar el test de Turing. La prueba de Turing es un examen de la capacidad de una máquina para mostrar un comportamiento inteligente tan parecido al ser humano que no se pueda diferenciar de este. Y el hecho de que hayamos estado entrenando a este chatbot de IA con cientos de miles, si no millones, de conversaciones al día, ha acelerado este proceso de forma disparada.

El desarrollo de la IA debe limitarse

El Future of Life Institute (FLI), una organización que se dedica a minimizar el riesgo y el mal uso de las nuevas tecnologías, ha publicado una carta abierta en la que pide a los laboratorios y empresas de IA que detengan inmediatamente su trabajo en sistemas OpenAI más allá de ChatGPT-4. Figuras notables como Steve Wozniak, cofundador de Apple, y Elon Musk, cofundador de OpenAI, han coincidido en que el progreso debe detenerse para garantizar que la gente pueda disfrutar de los sistemas existentes y que dichos sistemas beneficien a todos.

En la carta se afirma: "Por desgracia, este nivel de planificación y gestión no se está produciendo, a pesar de que en los últimos meses se ha visto a los laboratorios de IA enzarzados en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, puede entender, predecir o controlar de forma fiable."

Como estamos viendo, la prisa de las empresas por integrar y utilizar esta nueva tecnología está provocando una plétora de problemas, desde que CNET la utilice para generar artículos inexactos y plagiados hasta que se exponga la información de las tarjetas de crédito. Se está haciendo muy poco para proteger la privacidad, los derechos de propiedad intelectual de los artistas inteligentes o evitar que se filtre la información personal almacenada.

Y hasta que no tengamos algún tipo de control sobre esta tecnología en desarrollo y sobre cómo las empresas que la utilizan lo hacen de forma segura y responsable, el desarrollo quizás debería frenar un poco hasta que lo consigamos.

Antonio Romero

Editor en TechRadar España de día, guitarrista de blues y friki de los cómics de noche. ¿O era al revés?


Aportaciones de