Le ministère américain de la Défense utilise des algorithmes ML pour trouver des cibles de frappes aériennes

The US Department of Defense is using ML algorithms to find airstrike targets

Les chatbots tuent : En 2017, le Pentagone a créé le projet Maven pour appliquer la technologie d’apprentissage automatique (ML) afin d’identifier des cibles dans des situations de combat en temps réel. Le programme semble désormais être transformé en un véritable outil de guerre, même si les membres de l’armée américaine jurent qu’il y a toujours un humain qui appuie sur la gâchette finale.

Depuis début février, le ministère américain de la Défense a utilisé des algorithmes de ML pour identifier les cibles de plus de 85 frappes aériennes en Irak et en Syrie. Selon Schuyler Moore, directeur technique du Commandement central des États-Unis (CentCom), le Pentagone a commencé à utiliser la technologie de l’IA dans des situations de combat réelles après que les terroristes du Hamas ont attaqué Israël le 7 octobre 2023.

L’attaque surprise du terroriste a tout changé, a déclaré Moore à Bloomberg, puisque le DoD a finalement décidé de déployer les algorithmes d’IA développés par le projet Maven. L’armée américaine a immédiatement commencé à faire des choses qu’elle n’avait jamais faites avec la technologie de guerre par l’IA.

« Le 7 octobre, tout a changé », a déclaré Moore. « Nous sommes immédiatement passés à la vitesse supérieure et à un rythme opérationnel beaucoup plus élevé qu’auparavant. »

Les développeurs ont conçu les algorithmes du projet Maven pour qu’ils fonctionnent à partir de séquences vidéo capturées par des drones américains, aidant ainsi à détecter les soldats ou d’autres cibles potentielles de frappe aérienne. Depuis le 2 février, CentCom a identifié et détruit des roquettes, des missiles, des drones et des installations de milice ennemis avec Maven AI.

Le ministere americain de la Defense utilise des algorithmes ML

Moore a tenté de démystifier les prétendues capacités de « destruction » des nouveaux algorithmes de reconnaissance d’objets, affirmant que chaque étape impliquant l’IA se termine par une validation humaine. Le CentCom a également utilisé un moteur de recommandation d’IA qui suggérait des plans d’attaque et les meilleures armes à utiliser pendant les opérations. Cependant, les résultats n’étaient pas à la hauteur des normes humaines.

Le projet Maven s’est avéré être un sujet très controversé ces dernières années. Google a quitté le programme après avoir fait face à d’importantes réactions négatives de la part de ses employés, mais d’autres entreprises étaient plus qu’heureuses de continuer à travailler sur la guerre de l’IA avec les responsables du Pentagone.

Comme le confirment les frappes aériennes basées sur l’IA révélées par Moore, le DoD est désormais prêt à aller de l’avant en déployant une technologie « intelligente » sur le champ de bataille. Le Pentagone semble déjà travailler à l’intégration de modèles en grand langage (LLM) dans les décisions de combat réelles.

Craig Martell, responsable du numérique et de l’IA du DoD, a récemment déclaré que les États-Unis pourraient prendre du retard sur leurs adversaires s’ils n’adoptaient pas de modèles d’IA générative dans les opérations de guerre. Bien entendu, le gouvernement américain doit concevoir les « mesures de protection » et d’atténuation appropriées pour les risques de sécurité nationale, en prévenant et en traitant les problèmes qui pourraient découler d’une mauvaise gestion des données de formation.

Envie de vous détendre un peu ? Voici un reportage très intéressant sur l’intelligence artificielle :

YouTube video