Guerre sans soldats : robots et drones transforment les conflits
Guerre sans soldats : robots et drones transforment les conflits

Le 13 avril dernier, en Ukraine, une position russe a été prise pour la première fois sans qu'aucun soldat ne pose le pied sur le terrain, a annoncé le président Volodymyr Zelensky. Des robots terrestres et des drones ont suffi ; les occupants se sont rendus. Côté ukrainien, zéro mort. Cette opération illustre l'évolution des conflits et l'usage d'armes de plus en plus autonomes. Les soldats vont-ils laisser la place aux robots ?

Une transformation déjà impressionnante

Aujourd'hui, quatre frappes ukrainiennes sur cinq contre la Russie impliquent des drones de combat, selon Zelensky. Début 2026, l'industrie ukrainienne revendiquait une capacité de production de 8 millions de drones par an, d'après la revue Conflits. En avril, la Russie a atteint un record avec 6 583 drones lancés sur l'Ukraine en un seul mois.

Pour leurs défenseurs, ces technologies réduisent les victimes collatérales grâce à leur précision. D'autres servent à sauver des vies, y compris civiles. Les drones et robots terrestres, souvent sous forme de petits chars ou engins roulants, sont utilisés pour l'évacuation de blessés, le déminage ou la reconnaissance en terrain hostile, évitant d'exposer des soldats.

Bannière large Pickt — app de listes de courses collaboratives pour Telegram

L'armée ukrainienne a par exemple utilisé un robot terrestre à quatre roues sans pilote pour secourir une femme âgée blessée par des bombardements. « Le fait qu'il y ait moins de victimes grâce aux armes autonomes est vrai dans une première phase de conflit, analyse Emmanuel Goffi, professeur d'éthique appliquée à l'IA à l'Isep. Sur un conflit plus long, un peu moins. Et les conflits risquent de durer plus longtemps, avec des dégâts économiques et psychologiques plus importants. »

Dilution de la responsabilité

Ce basculement technologique ne concerne pas seulement les industries et les tactiques de terrain, mais aussi une question éthique. « Le critère central est la capacité d'une machine à se déclencher d'elle-même, explique Raja Chatila, professeur émérite à Sorbonne Université et directeur adjoint scientifique à l'Institut des systèmes intelligents et de robotique. Quand c'est l'être humain qui désigne la cible, la responsabilité est claire ; cela peut être légitime du point de vue du droit international. Mais dès lors que c'est une machine, la responsabilité devient problématique. Est-ce celle du chef d'État qui a autorisé la technologie ? S'il y a une erreur, est-ce la faute du concepteur ou de l'armée qui utilise ces engins ? »

Emmanuel Goffi nuance : « Déterminer la responsabilité a priori ne sert à rien. La responsabilité s'évalue a posteriori : qui a fait quoi, qui a décidé, est-ce que tout le monde était bien informé ? » Il pointe un autre risque politique majeur : quand les soldats sont de moins en moins nombreux à revenir dans des cercueils, les gouvernements n'ont plus à rendre de comptes à leurs populations. La guerre peut se décider en silence, sans que l'opinion publique n'ait son mot à dire. « On risque alors des guerres permanentes, parfois de faible intensité, avec une diplomatie instable, reprend Raja Chatila. Par certains aspects, on y assiste déjà. »

Aucune convention n'encadre les armes autonomes

Pour l'instant, aucun traité international n'encadre l'usage des armes létales autonomes. Officiellement, aucun État ne revendique leur utilisation ; les drones téléopérés restent sous contrôle humain. Mais même cette frontière s'effrite. D'une part, pour les frappes aériennes, « il y a parfois un guidage autonome sur la fin de l'approche, à cause des systèmes de brouillage », explique Raja Chatila. D'autre part, l'intelligence artificielle infiltre les processus de prise de décision. Exemple à Gaza, où le système « Lavender » de l'armée israélienne, révélé en avril 2024 par le magazine +972, compile les données de surveillance de l'ensemble de la population gazaouie pour évaluer la probabilité qu'un individu soit affilié à un groupe armé. Le programme propose ensuite à un opérateur humain des cibles à assassiner.

Bannière post-article Pickt — app de listes de courses collaboratives avec illustration familiale

En revanche, exit le scénario de science-fiction d'armées de robots qui se battraient entre elles. « Même s'il y a une guerre robot contre robot, il faut bien définir des objectifs [renverser un régime, libérer des prisonniers, imposer la paix] et faire face à des êtres humains à la fin du conflit, décrit Raja Chatila. L'ennemi, ça ne peut pas juste être les robots de l'autre. » Par ailleurs, quand des populations sont soumises à des frappes décidées par des algorithmes, c'est une forme d'humiliation et de guerre psychologique particulière. « Ce n'est pas une bonne façon de préparer la paix, tranche le chercheur. Ça nourrit un esprit de revanche. » La guerre sans humains, au fond, reste une guerre contre des humains.