Los datos necesarios para la IA Generativa, ponen en riesgo a las empresas

Ai tech, businessman show virtual graphic Global Internet connect Chatgpt Chat with AI, Artificial Intelligence.
(Crédito de imagen: Shutterstock/SomYuZu)

  • Informe afirma que las empresas comparten 7.7 GB/mes con las aplicaciones GenAI, frente a los 250 MB de hace 12 meses
  • Netskope descurbió que tres cuartas partes de los empleados utilizan cuentas personales para herramientas de IA
  • Se ha observado un marcado aumento de la IA en la sombra

Solo en el último año, las empresas han experimentado un asombroso aumento de 30 veces en la cantidad de datos que comparten con aplicaciones de IA generativa, lo que destaca el enorme potencial de vulnerabilidades sin la cantidad adecuada de protección, según declara una nueva investigación.

Los resultados de Netskope afirman que la organización promedio ahora comparte 7,7 GB por mes con dichas aplicaciones, frente a los 250 MB de hace 12 meses.

Entre los datos compartidos se encuentra información confidencial, como código fuente, IP, datos regulados, contraseñas y claves, y Netskope ahora insta a las empresas a considerar cómo comparten sus datos con terceros.

Compartiendo datos importantes con apps de IA Generativa

Aunque muchos casos se relacionan con el uso adecuado de herramientas de IA, la investigación de Netskope destaca el alarmante aumento de la IA en la sombra, definida como herramientas de inteligencia artificial que los empleados utilizan sin autorización ni aprobación de sus empresas. Casi tres de cada cuatro (72%) usuarios empresariales utilizan aplicaciones de IA Generativa con cuentas personales para el trabajo.

En general, las empresas tienen dificultades para seguir el ritmo de adopción de herramientas de IA, y un excelente ejemplo de ello es DeepSeek AI. Nueve de cada diez (91%) usuarios empresariales habían utilizado DeepSeek en las semanas posteriores a su lanzamiento, pero la mayoría carecía de políticas de seguridad sólidas.

Netskope también criticó a las empresas por adoptar un enfoque de bloqueo por defecto: al restringir el acceso de los usuarios a las herramientas de IA, los trabajadores son más propensos a interactuar con la IA en la sombra, lo que aumenta aún más el riesgo para las empresas. En cambio, las empresas deberían considerar habilitarlas de forma segura.

Curiosamente, el informe revela una tendencia notable hacia la infraestructura GenAI local: el 54 % de las organizaciones ejecutan versiones locales, en comparación con menos del 1 % hace un año.

“[La IA Generativa] se está integrando cada vez más en todo, desde aplicaciones dedicadas hasta integraciones de servidores internos”, afirmó Ray Canzanese, director de Netskope Threat Labs.

“Esta ubicuidad presenta un desafío creciente en materia de ciberseguridad, que exige que las organizaciones adopten un enfoque integral para la gestión de riesgos o se arriesguen a que sus datos confidenciales queden expuestos a terceros que podrían usarlos para entrenar nuevos modelos de IA, creando oportunidades para exposiciones de datos aún más generalizadas”, agregó Canzanese.

De cara al futuro, Netskope insta a las empresas a evaluar sus herramientas, usuarios y casos de uso para ofrecer soluciones más seguras y personalizadas.

Jorge Covarrubias
Editor

Apasionado del mundo de los videojuegos. El survival horror mi género favorito y de Resident Evil. Dedicado también a probar, conocer y reseñar todo tipo de gadgets y del mundo tech.