Skip to main content

Los coches autónomos pueden ser vulnerables a ataques

Conducción autónoma
(Crédito de imagen: Shutterstock)

Los coches autónomos mantienen la promesa de hacer la conducción más segura para todos eliminando la mayor causa de accidentes, los conductores humanos. Aún así, estos vehículos tienen otro riesgo para los conductores, pasajeros e incluso peatones. 

Para conducir solos, los coches autónomos usan sistemas de IA que emplean técnicas de machine learning para recoger, analizar y transferir datos para tomar decisiones conduciendo, decisiones que normalmente toman los conductores humanos. De todas formas, como todos los sistemas conectados, estos son vulnerables a ataques que pueden comprometer el funcionamiento de los coches que se conducen solos.

La Agencia Europea de Ciberseguridad (ENISA) y el Centro Común de Investigación (JRC) han publicado un nuevo informe llamado 'Desafíos de la ciberseguridad en la adopción de la inteligencia artificial en la conducción autónoma' que arroja luz sobre los riesgos de usar IA en los coches autónomos y da recomendaciones sobre cómo mitigarlos. 

El directo general del JRC, Stephen Quest, expandió el informe y sus resultados en una nota de prensa, diciendo:

Director-General of the JRC, Stephen Quest provided further insight on the report and its findings in a press release, saying:

“Es importante que las regulaciones europeas aseguren que los beneficios de la conducción autónoma no se vean afectados por riesgos de seguridad. Para ayudar a tomar una decisión a nivel europeo, nuestro informe reclama entender las técnicas de IA usadas para la conducción autónoma así como los riesgos de seguridad conectados a ella, para que se midan las acciones que hay que tomar para asegurar la seguridad de la IA en la conducción autónoma.”

Asegurando la IA en los coches autónomos

Los sistemas de seguridad usados por los coches autónomos tienen que trabajar constantemente para reconocer señales, marcas en la carretera y a otros vehículos, mientras estiman su velocidad y planean su recorrido.

Además de amenazas no intencionadas como fallos repentinos, estos sistemas también son vulnerables a ataques intencionados con el propósito de interferir en sus sistema de IA. Por ejemplo: añadir pintura o un sticker sobre una señal de stop puede evitar que un sistema de IA de un vehículo autónomo lea correctamente la señal, lo clasifique como objeto de manera errónea y ponga al coche en riesgo.

Para mejorar la seguridad de la IA en los coches autónomos, el informe recomienda realizar evaluaciones de seguridad periódicas de los componentes de IA a lo largo de su ciclo de vida. El informe también sugiere que se realicen evaluaciones para identificar posibles riesgos de la IA. 

Estos problemas de seguridad necesitan ser arreglados antes de que los vehículos autónomos se conviertan en algo muy común en las carreteras de la UE y en todo el mundo.

Via Enisa