L'IA générative s'invite sur les champs de bataille modernes
On la consulte pour organiser ses vacances, soigner une toux persistante ou corriger ses courriels professionnels. Avec ChatGPT, l'intelligence artificielle générative s'est imposée dans notre quotidien. Mais peut-on désormais s'en servir pour planifier des frappes militaires contre l'ennemi ? C'est précisément ce que révèle l'utilisation de Claude, l'IA développée par Anthropic, par le Pentagone lors des récentes opérations conjointes américano-israéliennes en Iran.
Une révolution dans l'analyse du renseignement
Selon le Wall Street Journal, le commandement militaire américain a recouru à des outils d'IA générative pour des missions de renseignement, de sélection des cibles et de simulations de champs de bataille. Quelques mois plus tôt, Anthropic aurait également été impliquée dans les opérations contre le régime vénézuélien et la capture présumée du dictateur Nicolas Maduro.
L'IA générative imprègne désormais de nombreux aspects des activités militaires américaines, particulièrement dans l'analyse du renseignement. Comme l'explique le contre-amiral Vincent Sébastien, directeur adjoint de l'Agence ministérielle pour l'intelligence artificielle de défense : "L'exploitation des données issues du renseignement et du champ de bataille par les IA permet de construire rapidement des plans de frappes."
Alors qu'auparavant, des centaines d'analystes devaient examiner méticuleusement les énormes quantités d'informations collectées par les services américains, les modèles d'IA générative prennent désormais en charge cette tâche colossale. Les forces françaises s'appuient également sur cette technologie innovante, qui se distingue fondamentalement de l'IA dite "traditionnelle" ou "symbolique".
De la reconnaissance d'image à l'analyse prédictive
Plus ancienne, l'IA traditionnelle se concentre généralement sur une tâche spécifique, comme la reconnaissance d'images via des capteurs ou des satellites - utile pour identifier un char ennemi, par exemple. "L'inconvénient, c'est que cette IA n'est pas adaptée au traitement d'énormes masses de données", remarque Alain Filipowicz, chercheur associé à l'IRIS et consultant en soutien à l'innovation.
Tout l'inverse de l'IA générative, plus récente et capable de croiser des milliards d'informations grâce à ses réseaux de neurones sophistiqués. "Si l'on prend l'exemple d'un drone alimenté par une IA générative, celui-ci peut analyser de nombreux paramètres afin de détecter s'il a face à lui un char", explique Aymeric Roucher, ingénieur spécialiste de l'IA. "Il prend en compte son déplacement, sa vitesse, son éventuel camouflage, les munitions dont il dispose..."
Cette évolution technologique confère aux systèmes d'armes une autonomie sans précédent, les rendant simultanément plus efficaces et plus complexes à contrôler.
La planification militaire accélérée par l'IA
Les informations traitées par l'IA peuvent être extraordinairement variées :
- Renseignement humain et flux financiers
- Images satellites et données géospatiales
- Taux d'utilisation de kérosène dans des régions spécifiques
- Types de raffinage pouvant révéler des bases aériennes cachées
- Consommation électrique anormale dans des villages
Autant de facteurs hétérogènes qui, analysés par une IA, peuvent révéler des anomalies en quelques instants seulement. "L'IA met en partition tous les paramètres : les informations récoltées, les volontés du commandement, le nombre de soldats sur place, les moyens à disposition...", poursuit le contre-amiral Vincent Sébastien. "Avec l'IA, on débouche beaucoup plus vite sur un plan de frappe."
Des performances militaires démultipliées
Bien que les détails précis restent classifiés, le nombre impressionnant de frappes lancées par les États-Unis au début du conflit en Iran témoigne de l'assistance déterminante de l'IA - qu'il s'agisse de Claude ou de Palantir, une autre entreprise partenaire du Pentagone.
Selon le chef d'état-major Dan Caine, plus de 1 000 cibles ont été visées lors du premier jour des hostilités. "C'est gigantesque en termes de données croisées, d'images satellites, de besoins en matériel", souligne Arnaud Valli, responsable des affaires publiques chez Comand AI. "Cela signifie qu'il faut gérer en temps réel le nombre d'avions dans le ciel, la trajectoire des missiles, le traitement des cibles avec leur historique..."
Les drones autonomes : nouvelle frontière militaire
L'autre apport majeur de l'IA générative se situe directement dans les systèmes d'armes, particulièrement les drones. Selon Hadrien Canter, directeur général d'Alta Ares, ces engins embarquent désormais de nombreux capteurs optroniques qui améliorent considérablement leur précision.
"L'IA effectue de la prévision de trajectoire grâce aux données récoltées par les radars", indique-t-il. "Elle estime la position que la cible atteindra dans les 15 prochaines secondes, garantissant ainsi que la munition atteigne son objectif."
Les drones américains déployés en Iran disposent de cette technologie avancée, certains intégrant même des GPU pour des calculs de trajectoire encore plus précis. Cette autonomie croissante intéresse particulièrement les théâtres d'opérations complexes comme l'Ukraine, où de nombreux drones nécessitent encore un guidage par fibre optique - système à la fois coûteux et vulnérable aux brouillages.
Les limites et risques éthiques de l'IA militaire
"Un analyste image peut faire des erreurs, une intelligence artificielle en fera aussi", souligne prudemment le contre-amiral Vincent Sébastien. Des inexactitudes peuvent survenir lors de l'identification des cibles, mais des procédures de contrôle humain restent essentielles.
La question centrale pour le commandement militaire concerne la responsabilité des combattants. "Il faut que les chefs militaires conservent le contrôle final sur les choix", reconnaît l'officier. "La difficulté, c'est de résister à la pression du temps et de garder son discernement par rapport aux décisions de l'IA."
Ce fameux "human in the loop" devient crucial alors que les armes gagnent en autonomie. "L'IA peut remplacer, si on n'y prête garde, certains éléments critiques de la chaîne de commandement", met en garde Alain Filipowicz. À Gaza, certains dirigeants israéliens se sont d'ailleurs plaints d'être relégués au second plan par rapport aux systèmes d'IA.
Le cas troublant de la guerre à Gaza
Lors de ce conflit, la désignation des cibles aurait été largement déléguée à des IA, comme l'a révélé +972 Magazine en avril 2024. L'État hébreu avait développé plusieurs logiciels - baptisés Lavender ou Where's Daddy - dont la mission consistait à identifier et localiser les combattants du Hamas.
La désignation comme cible s'effectuait à partir de données analysées par des algorithmes : participation à des groupes WhatsApp militants, changements fréquents de téléphone ou d'adresse... Lavender aurait ainsi permis le ciblage de 37 000 personnes à Gaza.
Or, des officiers israéliens ont déclaré qu'ils n'avaient pas l'obligation de vérifier manuellement chaque cible détectée par le système, afin de gagner du temps. Le taux d'erreur atteignait généralement 10% - un chiffre significatif, parfaitement connu du commandement.
La fiabilité en question
Les fournisseurs d'IA reconnaissent ces limites. "Les systèmes ne sont tout simplement pas assez fiables pour alimenter des armes entièrement autonomes", a indiqué Anthropic dans une note publiée fin février, marquant le début d'un différend avec le Pentagone.
Le débat éthique s'intensifie : si une IA générative cible des civils au lieu de troupes ennemies, qui en répondra devant la justice ? "Contrairement à l'IA traditionnelle, on peine toujours à comprendre le raisonnement de l'IA générative", rappelle Alain Filipowicz. "Et on l'a remarqué, elle est aussi capable de mentir."
Même pour des simulations, l'IA générative montre ses limites. Bien que rapide dans l'analyse de situations complexes, elle préconise souvent des escalades mortifères. Une étude du King's College de Londres a démontré récemment qu'en situation de conflit virtuel, les grands modèles de langage comme ChatGPT, Claude ou Gemini Flash menaçaient systématiquement de recourir à l'arme nucléaire.
Vers une guerre 3.0
En Iran, l'opération contre le Guide suprême Ali Khamenei illustre cette nouvelle ère. Rendu possible par le piratage des caméras de surveillance de Téhéran et la pénétration des téléphones mobiles de ses proches, cet épisode s'inscrit parfaitement dans la guerre 3.0 où les LLM jouent un rôle déterminant.
Pourtant, la présence effective de Khamenei dans le bâtiment visé - et donc le déclenchement des frappes - n'a pu être confirmée que par une source humaine, très proche du régime. Un rappel salutaire que même dans l'ère de l'IA générative, l'intelligence humaine conserve son rôle irremplaçable sur les champs de bataille modernes.



