¿Podría funcionar la IA generativa sin el robo de datos en línea? ChatRTX de Nvidia demostraría que sí

blue and gold squares with a graph and text box symbol inside
(Crédito de imagen: Nvidia)

Es una realidad, la inteligencia artificial generativa produce un gran miedo, sobre todo porque tiene acceso a información personal. Sin embargo, esto podría cambiar muy pronto gracias a Nnvidia.

Ya que la compañía sigue invirtiendo en iniciativas de IA y la más reciente, ChatRTX, no es una excepción con su última actualización. 

ChatRTX es, según el gigante tecnológico, una "aplicación de demostración que te permite personalizar un GPT large language model (LLM) conectado a tu propio contenido". Este contenido comprende los documentos locales de tu PC, archivos, carpetas, etc., y esencialmente construye un chatbox AI personalizado a partir de esa información.

Al no necesitar conexión a Internet, ofrece a los usuarios un acceso rápido a las respuestas a consultas que podrían estar enterradas bajo todos esos archivos informáticos. Con la última actualización, tiene acceso a más datos y LLM, como Google Gemma y ChatGLM3, un LLM abierto y bilingüe (inglés y chino). También puede buscar fotos localmente y es compatible con Whisper, lo que permite a los usuarios conversar con ChatRTX a través de un programa de reconocimiento de voz automatizado por IA.

Nvidia utiliza el software TensorRT-LLM y las tarjetas gráficas RTX para potenciar la IA de ChatRTX. Y como es local, es mucho más seguro que los chatbots de IA en línea. Puedes descargar ChatRTX aquí para probarlo gratis.

¿Puede la IA escapar a su dilema ético?

El concepto de un chatbot de inteligencia artificial que utiliza datos locales de tu PC, en lugar de entrenarse en (léase: robar) las obras en línea de otras personas, es bastante intrigante. Parece resolver el dilema ético de utilizar obras protegidas por derechos de autor sin permiso y acapararlas. También parece resolver otro problema a largo plazo que ha plagado a muchos usuarios de PC: encontrar realmente archivos enterrados desde hace tiempo en el explorador de archivos, o al menos la información atrapada en ellos.

Sin embargo, está la cuestión obvia de cómo el conjunto de datos extremadamente limitado podría afectar negativamente al chatbot. A menos que el usuario sea especialmente hábil entrenando a la IA, podría acabar convirtiéndose en un grave problema en el futuro. Por supuesto, utilizarlo únicamente para localizar información en el PC está perfectamente bien y lo más probable es que sea el uso adecuado. 

Pero el objetivo de un chatbot de IA es mantener conversaciones únicas y significativas. Tal vez hubo un tiempo en el que podríamos haberlo hecho sin el robo desenfrenado, pero las corporaciones han alimentado su IA con palabras robadas de otros sitios y ahora está irrevocablemente atada.

Dado que es muy poco ético que el robo de datos sea la parte vital del proceso que permite hacer chats lo suficientemente redondos como para no quedar atrapados en bucles de retroalimentación, es posible que Nvidia pueda ser el punto intermedio para la IA generativa. Si se desarrolla plenamente, podría demostrar que no necesitamos la transgresión ética para potenciarlas y darles forma, así que brindo por la esperanza de que Nvidia pueda hacerlo bien.

También pueden leer:

Antonio Quijano
Editor
Aportaciones de