Le Pentagone lance une nouvelle plateforme d'IA basée sur Gemini

Gemini on a mobile phone
(Crédit photo: Shutterstock/mundissima)

  • Les États-Unis lancent GenAI.mil, offrant à trois millions de membres du Département de la Défense un accès à Gemini for Government
  • Des experts alertent sur les risques d’attaques par injection de requêtes, qui pourraient faciliter l’espionnage en cas de compromission des comptes ou des postes de travail
  • Les protestations passées des employés de Google contre les projets militaires suscitent des interrogations sur leur réaction actuelle

L’armée américaine va intégrer Gemini, le modèle d’IA de Google. En début de semaine, le secrétaire à la Défense Pete Hesgeth a publié une vidéo sur X pour annoncer le lancement de GenAI.mil, une plateforme qui « place les modèles d’intelligence artificielle les plus puissants au monde entre les mains de chaque guerrier américain ».

Environ trois millions d’agents du Département de la Défense – que l’administration actuelle appelle parfois « Département de la Guerre » – auront accès à cette plateforme, civils comme militaires. Tous bénéficieront d’une formation gratuite à son utilisation.

Cette plateforme repose sur Gemini for Government, une version spécialisée de l’IA de Google, pensée spécifiquement pour les agences fédérales américaines.

Des employés de Google opposés à l’usage militaire

En théorie, cela signifie que ces modèles sont plus sécurisés, conformes et adaptés aux exigences gouvernementales que leurs équivalents gratuits et grand public. Reste à savoir si cela se vérifie réellement.

Selon Cybernews, plusieurs dérives sont envisageables. Malgré les efforts déployés, les modèles d’IA actuels restent vulnérables aux attaques par injection de requêtes, ouvrant potentiellement la voie à des opérations de vol de données ou d’espionnage menées par des puissances adverses telles que la Russie, la Chine, la Corée du Nord ou l’Iran.

« Chaque poste de travail ou compte d’accès commun compromis pourrait désormais offrir une console IA puissante, susceptible d’accéder à des données internes via des intégrations, ou de faciliter la transformation et la synthèse de données volées », a déclaré Joshua Copeland, expert en cybersécurité à l’université de Tulane, au média.

Le silence actuel des salariés de Google intrigue. Ces dernières années, plusieurs vagues de protestation ont visé les projets à vocation militaire ou sécuritaire de l’entreprise.

En 2018, des milliers de salariés ont signé une lettre contre le Project Maven, un programme d’IA destiné à analyser des images captées par drones. Certains employés ont même démissionné, et Google a finalement renoncé à renouveler ce contrat.

Entre 2021 et 2023, le contrat Project Nimbus, portant sur 1,2 milliard de dollars de services cloud et d’IA au profit du gouvernement et de l’armée israéliens, a également suscité une vive opposition. Des employés ont dénoncé publiquement les risques d’usage à des fins de surveillance ou d’atteintes aux droits humains. Plusieurs d’entre eux ont été sanctionnés ou licenciés après avoir intensifié leur mobilisation.

Via Cybernews


TOPICS

Sead is a seasoned freelance journalist based in Sarajevo, Bosnia and Herzegovina. He writes about IT (cloud, IoT, 5G, VPN) and cybersecurity (ransomware, data breaches, laws and regulations). In his career, spanning more than a decade, he’s written for numerous media outlets, including Al Jazeera Balkans. He’s also held several modules on content writing for Represent Communications.