ChatGPT ha superado la prueba de Turing y si no estás asustado, es que no sabes lo que es

(Crédito de imagen: Shutterstock)

A pesar de que acaba de lanzar ChatGPT-4, OpenAI ya está trabajando en la quinta iteración de la inmensamente popular aplicación de chat, GPT-5. Según un nuevo informe de BGR, podríamos ver esas importantes actualizaciones tan pronto como a finales de año.

Un hito, en particular, podría estar al alcance de la mano si esto resulta ser cierto: la capacidad de ser indistinguible de los humanos en una conversación. O lo que es lo mismo, superar el test de Turing. La prueba de Turing es un examen de la capacidad de una máquina para mostrar un comportamiento inteligente tan parecido al ser humano que no se pueda diferenciar de este. Y el hecho de que hayamos estado entrenando a este chatbot de IA con cientos de miles, si no millones, de conversaciones al día, ha acelerado este proceso de forma disparada.

Teniendo en cuenta el meteórico ascenso y desarrollo de la tecnología ChatGPT desde su debut en noviembre de 2022, es muy probable que estos rumores sean ciertos. Y aunque ver cómo esta tecnología mejora tan rápidamente puede ser emocionante, divertidísimo y, a veces, revelador, también hay muchos peligros y trampas legales que pueden causar daños fácilmente.

Por ejemplo, la cantidad de estafas de malware que se propagan ha aumentado constantemente desde la introducción de la tecnología de chatbot, y su rápida integración en las aplicaciones pone en tela de juicio los problemas de privacidad y recopilación de datos, por no mencionar los problemas de plagio desenfrenado. Pero no soy el único que ve el problema de que ChatGPT se imponga con tanta rapidez y agresividad. Los líderes tecnológicos y los expertos en IA también han dado la voz de alarma.

El desarrollo de la IA debe limitarse

El Future of Life Institute (FLI), una organización que se dedica a minimizar el riesgo y el mal uso de las nuevas tecnologías, ha publicado una carta abierta en la que pide a los laboratorios y empresas de IA que detengan inmediatamente su trabajo en sistemas OpenAI más allá de ChatGPT-4. Figuras notables como Steve Wozniak, cofundador de Apple, y Elon Musk, cofundador de OpenAI, han coincidido en que el progreso debe detenerse para garantizar que la gente pueda disfrutar de los sistemas existentes y que dichos sistemas beneficien a todos.

En la carta se afirma: "Por desgracia, este nivel de planificación y gestión no se está produciendo, a pesar de que en los últimos meses se ha visto a los laboratorios de IA enzarzados en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, puede entender, predecir o controlar de forma fiable."

Como estamos viendo, la prisa de las empresas por integrar y utilizar esta nueva tecnología está provocando una plétora de problemas, desde que CNET la utilice para generar artículos inexactos y plagiados hasta que se exponga la información de las tarjetas de crédito. Se está haciendo muy poco para proteger la privacidad, los derechos de propiedad intelectual de los artistas inteligentes o evitar que se filtre la información personal almacenada.

Y hasta que no tengamos algún tipo de control sobre esta tecnología en desarrollo y sobre cómo las empresas que la utilizan lo hacen de forma segura y responsable, el desarrollo quizás debería frenar un poco hasta que lo consigamos.

Antonio Romero

Editor en TechRadar España de día, guitarrista de blues y friki de los cómics de noche. ¿O era al revés?


Aportaciones de