Qué no compartir con ChatGPT

Shush, be silent. Serious pretty business woman in formal blouse makes presses index finger over lips asks to keep secret information confidential look
(Crédito de imagen: South House Studio via Shuttertsock)

Independientemente de tus puntos de vista sobre ChatGPT, es evidente que este chatbot ha llegado para quedarse. Nos encontramos frente a una herramienta increíblemente poderosa que nos ha sido impuesta, lo que nos lleva a replantearnos no solo qué se puede hacer con ChatGPT, sino también qué se debería hacer con él.

Muchas personas tienen una percepción limitada de los riesgos asociados al uso de chatbots como ChatGPT, incluyendo posibles violaciones de datos y de privacidad que pueden afectar a los usuarios. Sin duda, existe la posibilidad de que ChatGPT se convierta en una amenaza para la seguridad, y ya hemos presenciado algunos casos a pequeña escala que lo demuestran en el corto tiempo que ha estado disponible públicamente.

A principios de este año, ChatGPT experimentó un incidente que dejó a los suscriptores de pago y usuarios gratuitos desorientados en sus conversaciones, incapaces de iniciar sesión o utilizar el bot. Poco después, OpenAI compartió un comunicado revelando que un error había expuesto los títulos de los chats en los historiales de otros usuarios.

¿Cuáles son los riesgos? ¿Vale la pena?

Aunque esta situación fue un tanto desconcertante, se resolvió rápidamente una vez que ChatGPT volvió a estar en funcionamiento. Sin embargo, OpenAI reconoció que el mismo error "pudo haber permitido la visibilidad involuntaria de información relacionada con el pago de aproximadamente el 1,2% de los suscriptores de ChatGPT Plus que estuvieron activos durante una ventana específica de nueve horas".

Este incidente es solo un ejemplo menor de las posibles amenazas a la seguridad de los datos a las que podríamos enfrentarnos. Sin embargo, sigue siendo relevante plantear la pregunta fundamental: ¿en qué medida estamos revelando más información de la debida a la IA al aprovechar las impresionantes capacidades de ChatGPT?

El CEO de OpenAI, Sam Altman, ha reconocido los riesgos asociados con la confianza en ChatGPT y advierte que "actualmente es un error confiar en él para cualquier asunto importante".

See more

Deberías tratar a ChatGPT de la misma manera que tratas a otras plataformas como Facebook o Twitter. Si no deseas que el público en general lea lo que dices o compartes con ChatGPT, evita proporcionarle esa información al bot o a cualquier otro chatbot.

Aunque los chatbots como Google Bard y Bing AI puedan parecer amigables e inocentes, es importante no dejarse engañar. A menos que te des de baja, tu información está siendo utilizada para entrenar al chatbot o está siendo revisada por personal humano de OpenAI. Ten esto en cuenta la próxima vez que comiences a chatear.

¿Deberías utilizar ChatGPT para trabajar? Probablemente no.

Es probable que hayas notado numerosos elogios sobre los chatbots mejorados con IA, destacando su capacidad para aumentar la productividad y ahorrar tiempo en tareas como redactar correos electrónicos o crear pies de foto para redes sociales. Muchas personas ya están utilizando ChatGPT y otros bots de IA similares para mejorar su trabajo profesional.

Sin embargo, es importante tener en cuenta que los empleados de Samsung utilizaron ChatGPT brevemente y, de manera inadvertida, revelaron secretos comerciales, lo que resultó en la prohibición del chatbot en la empresa. Ahora, los empleados se enfrentan a medidas disciplinarias si no cumplen con las nuevas restricciones. Samsung no es la única gran empresa que está tomando medidas restrictivas en relación a la IA, ya que Apple también ha prohibido a sus empleados utilizar ChatGPT, y grandes bancos como Citigroup y JPMorgan han seguido su ejemplo recientemente.

Entiendo que puede ser tentador solucionar algo rápidamente, pedir a alguien que revise el código o delegar la redacción de un extenso correo electrónico, mientras intentas manejar otras responsabilidades laborales. Sin embargo, es crucial recordar que no estás simplemente compartiendo esa información en el vacío. No querrás ser la persona en la oficina que "hace un Samsung" y filtra información confidencial de la empresa o, peor aún, tus propios datos personales.

¿Puedo utilizar ChatGPT en el trabajo?

¿Cuándo es seguro utilizar ChatGPT? Si no hay normas que prohíban el uso de ChatGPT en tu espacio de trabajo (todavía), no hay nada malo en pedirle al bot que desglose conceptos que no entiendes, que condense documentos extensos para que los leas más fácilmente o que analice datos públicos, pero asegúrate de limitarte a información más general, sin dar nada sensible a la IA.

Sería desafortunado que estés redactando un resumen de una reunión crucial y que esos detalles se filtren en línea. No importa si estás utilizando ChatGPT en tu navegador o en tu iPhone, los problemas de seguridad siguen existiendo independientemente de cómo te conectes al bot. Por lo tanto, es importante tener precaución con lo que decides compartir con él. Hasta que tengamos herramientas de IA verdaderamente basadas en dispositivos y que no requieran conexión a Internet, cualquier información que proporciones al chatbot que elijas no estará completamente segura.

Si deseas conocer qué información no debes compartir con ChatGPT, la respuesta simple es cualquier dato personal. Evita proporcionar información que pueda identificarte entre los demás, cosas que compartirías con amigos pero no con colegas. Recuerda que esta tecnología aún es muy nueva y presenta cierta inestabilidad.

No tenemos certeza sobre lo que depara el futuro, ni cómo se utiliza exactamente la información que ChatGPT ya posee, ni si esa información podría divulgarse públicamente. Es aconsejable tratar a ChatGPT como a un colega de trabajo informado pero peculiar, y mantener cierta distancia siempre que sea posible. No es necesario entablar una relación amistosa con el chatbot, al menos por ahora.

Alexa Hernandez
Editor

Alexa Hernandez es amante de los animales, series, películas y tecnología. 

Aportaciones de