La IA y ChatGPT, dan miedo, aseguran ciberdelincuentes

Illustrated image of a bot inside a computer with speech bubble
(Crédito de imagen: Getty)

Muchos ciberdelincuentes se muestran escépticos sobre el uso de herramientas basadas en inteligencia artificial como ChatGPT para automatizar sus campañas maliciosas. 

Una nueva investigación de Sophos buscó medir los intereses de los ciberdelincuentes mediante el análisis de foros de la dark web. Aparentemente, existen muchas salvaguardas en herramientas como ChatGPT, que evitan que los piratas informáticos automaticen la creación de páginas de destino maliciosas, correos electrónicos de phishing, códigos maliciosos y más.

Eso obligó a los piratas informáticos a hacer dos cosas: intentar comprometer las cuentas premium de ChatGPT (que, como sugiere la investigación, vienen con menos restricciones) o recurrir a derivados de GhatGPT, clonados Redactores de IA que los piratas informáticos crearon para eludir las salvaguardas.

Malos resultados y mucho escepticismo

Pero muchos desconfían de los derivados, por temor a que hayan sido construidos sólo para engañarlos. 

"Si bien ha habido una gran preocupación por el abuso de la IA y los LLM por parte de los ciberdelincuentes desde el lanzamiento de ChatGPT, nuestra investigación ha encontrado que, hasta ahora, los actores de amenazas están más escépticos que entusiasmados", dice Ben Gelman, científico de datos senior de Sophos. “En dos de los cuatro foros de la dark web que examinamos, solo encontramos 100 publicaciones sobre IA. Comparando esto con las criptomonedas, donde encontramos 1000 publicaciones durante el mismo período”.

Si bien los investigadores observaron intentos de crear malware u otras herramientas de ataque utilizando chatbots impulsados por IA, los resultados fueron "rudimentarios y a menudo encontraron escepticismo por parte de otros usuarios", dijo Christopher Budd, director de investigación de X-Ops de Sophos. 

“En un caso, un actor de amenazas, ansioso por mostrar el potencial de ChatGPT, reveló sin darse cuenta información importante sobre su verdadera identidad. Incluso encontramos numerosos “artículos de reflexión” sobre los posibles efectos negativos de la IA en la sociedad y las implicaciones éticas de su uso. En otras palabras, al menos por ahora, parece que los ciberdelincuentes están teniendo los mismos debates sobre los LLM que el resto de nosotros”, añadió Budd.

Jorge Covarrubias
Editor

Apasionado del mundo de los videojuegos. El survival horror mi género favorito y de Resident Evil. Dedicado también a probar, conocer y reseñar todo tipo de gadgets y del mundo tech.

TOPICS