Microsoft crée la Matrice, pour s'assurer que nous ne serons pas victimes d'une IA meurtrière

Intelligence Artificielle
(Crédit photo: Shutterstock)

Quiconque s'inquiète de la montée en puissance d’un cerveau artificiel misanthrope façon Skynet pourra se rassurer un minimum. La « résistance » est d’ores et déjà en place et elle vient de présenter un système de protection inédit, destiné à éviter une éventuelle révolte de l'IA.

L'organisation à but non lucratif MITRE Corporation s'est associée à 12 grandes entreprises technologiques - dont Microsoft, IBM et Nvidia - pour instaurer un système de sécurité capable de seconder les analystes humains pour repérer, alerter, répondre et traiter les menaces visant les ressources d'apprentissage machine, aussi appelée Machine Learning (ML).

La Matrice est universelle

Selon Microsoft, la création de ce système a été motivée par la croissance continue du nombre d'attaques IA générées dans le monde. L'entreprise a mené une enquête auprès de 28 grandes firmes, et a constaté que presque toutes ne sont pas encore conscientes de la menace que peut représenter l'apprentissage machine antagoniste, vingt-cinq d'entre elles déclarant qu'elles ne disposent pas des outils adéquats pour sécuriser leurs ressources ML.

Afin de rassurer et de conseiller ces organisations, la Matrice (le nom du système de contre-attaque – ironique, non ?) cherche à accompagner leurs départements informatiques à se défendre face aux offensives visant les ressources ML.

La Matrice des Menaces contre l’Apprentissage Machine répertorie un certain nombre de vulnérabilités et de comportements adverses repérés par Microsoft et MITRE au fil des ans, ainsi que toute une série de solutions sécuritaires mises en place par la firme de Redmond. Elle est aujourd’hui accessible sur GitHub, pour toutes les entreprises qui souhaitent en savoir plus.

« Nous avons constaté que, lorsqu'ils attaquent un système, les cybercriminels utilisent fréquemment une combinaison de techniques traditionnelles comme le phishing, ainsi que des ressources d’apprentissage machine détournées », avance Microsoft pour justifier le développement de la Matrice. « Afin de sécuriser l'apprentissage machine, les barrières entre les entreprises et les responsabilités publiques et privées s'estompent ; les défis du secteur public comme la sécurité nationale nécessiteront la coopération des acteurs privés autant que des investissements publics », rajoute Mikel Rodriguez, directeur de la recherche sur l'apprentissage machine chez MITRE.

« Pour aider à relever ces défis, MITRE s'est engagée à travailler avec des organisations comme Microsoft et la communauté tech au sens large. De manière à identifier les vulnérabilités critiques dans la chaîne d'approvisionnement de l'apprentissage machine. Ce cadre est une première étape pour aider à rassembler les différents acteurs et leur permettre de réfléchir aux nouveaux défis à relever pour sécuriser les systèmes d'apprentissage machine de manière plus holistique ».

Mike Moore
Deputy Editor, TechRadar Pro

Mike Moore is Deputy Editor at TechRadar Pro. He has worked as a B2B and B2C tech journalist for nearly a decade, including at one of the UK's leading national newspapers and fellow Future title ITProPortal, and when he's not keeping track of all the latest enterprise and workplace trends, can most likely be found watching, following or taking part in some kind of sport.