Des soldats robots hors de contrôle : la Chine tire la sonnette d'alarme

Selon le PLA Daily , l'organe officiel de l'Armée populaire de libération, les soldats robots pourraient tuer n'importe qui, n'importe où, de manière incontrôlable.
Les soldats robots tueront tout le monde, craint la Chine Trois experts militaires chinois, Yuan Yi, Ma Ye et Yue Shiguang, ont rédigé un article qui sonne comme un cri d'alarme. Les robots de guerre humanoïdes , écrivent-ils, violent les principes moraux fondamentaux de l'humanité. Même la célèbre première loi d'Asimov est bafouée : un robot ne peut nuire à un être humain
.
Le problème est que ces robots sont conçus pour faire exactement l'inverse. Et selon les experts chinois, leur utilisation généralisée pourrait entraîner des décès accidentels
, des assassinats incontrôlés
et une confusion totale des responsabilités. À qui la faute si un robot tue la mauvaise cible ?
Derrière cet appel à la modération se cache cependant un fait déconcertant : la Chine, qui tire la sonnette d’alarme, prévoit de produire plus de 10 000 robots militaires humanoïdes d’ici fin 2025. Ce chiffre colossal représente la moitié de la production mondiale.
Des entreprises comme Unitree , AgiBot et EngineAI produisent des machines de plus en plus agiles : elles marchent, courent, sautent et soulèvent des poids. Certaines peuvent même faire des saltos. Mais leur véritable objectif n'est pas d'impressionner lors de concours de talents : il s'agit de remplacer de vrais soldats sur le champ de bataille.
Parce que les armées les veulent à tout prixBien que coûteux, lents et fragiles, les robots humanoïdes fascinent les généraux du monde entier. La raison est simple : ils peuvent faire tout ce qu'un soldat humain peut faire, sans ressentir la peur, la douleur ou le remords. Ils peuvent monter des escaliers, ouvrir des portes et manier des armes. Et surtout, ils peuvent être sacrifiés sans remords.
Dans une hypothétique invasion de Taïwan, ces robots pourraient être envoyés en première ligne pour tester les défenses ennemies, nettoyer les zones dangereuses et absorber les tirs ennemis. Une utilisation cynique, mais tactiquement parfaite : mieux vaut perdre mille robots que cent soldats.
L'hypocrisie américaine, mais pas seulementAlors que la Chine exprime des doutes moraux, les États-Unis font exactement le contraire. En 2018, Google a solennellement promis que ses systèmes d'IA ne seraient jamais utilisés à des fins militaires. Sept ans plus tard, cette promesse a disparu, et Google collabore avec Lockheed Martin sur des projets d'IA tactique .
OpenAI , l'entreprise à l'origine de ChatGPT, a suivi la même voie. Après avoir interdit toute utilisation militaire de ses outils, elle a signé un contrat de 200 millions de dollars avec le Pentagone en 2025. Officiellement pour « la sécurité nationale », la frontière entre utilisation offensive et utilisation malveillante est très mince.
Microsoft alimente les systèmes militaires israéliens via le cloud Azure , dont certains sont utilisés pour le ciblage automatisé. Amazon participe au projet Nimbus , un contrat de 1,2 milliard de dollars avec Israël, où l'IA est utilisée pour surveiller et neutraliser des cibles.
Paris a également accéléré ses efforts en matière de robots de guerre . En 2024, elle a créé l'agence AMIAD , dotée de 300 millions d'euros par an pour développer des algorithmes militaires souverains. Objectif : doter l'armée française d'une IA capable de planifier, de détecter et de neutraliser.
Thales , le géant français de la défense, développe des systèmes autonomes de déminage et des drones sous-marins capables de détecter et de détruire les mines sans intervention humaine. En 2025, il a livré une flotte de ces robots sous-marins aux Britanniques. Mistral AI, une entreprise basée au Chat , fournit également déjà des modèles à l'armée française.
Une loi internationale qui n’existe pas Face à cette course aux armements robotisés , le droit international est totalement inadapté. La loi européenne sur l'IA exclut totalement les utilisations militaires . Les Nations Unies parlent depuis des années de réglementer les armes létales autonomes
, mais sans résultats concrets.
Il en résulte un Far West numérique où chaque pays fait ce qu'il veut. Qui sera responsable lorsqu'un robot tuera accidentellement un civil ? Le fabricant, le soldat, l'État, l'algorithme ? Personne ne le sait, et les armées exploitent cette confusion pour avancer sans entrave.
L'ironie suprême est que c'est la Chine, traditionnellement indifférente aux droits de l'homme, qui est la première à réclamer une surveillance éthique mondiale. Peut-être parce qu'elle sait pertinemment que lorsqu'un monstre se déchaîne, il n'est plus possible de contrôler ses dévoreurs.
Punto Informatico