Chaque jour, nous abandonnons volontairement des informations sur nous-mêmes aux machines. Cela se produit lorsque nous acceptons un cookie en ligne ou utilisons un moteur de recherche. Nous pensons à peine à la façon dont nos données sont vendues et utilisées avant de cliquer sur «d’accord» pour accéder à la page que nous voulons, faiblement conscient qu’elle sera utilisée pour nous cibler en tant que consommateurs et nous convaincre d’acheter quelque chose dont nous ne savions pas que nous avions besoin.
Mais que se passe-t-il si les machines utilisaient les données pour décider qui cibler les ennemis qui doivent être tués? L’ONU et un groupe d’organisations non gouvernementales craignent que ce scénario soit sur le point d’être une réalité. Ils appellent à une réglementation internationale des armes autonomes mortelles (lois) pour éviter un future proche où les machines dictent les choix de vie et de mort.
Guerre de drones à grande échelle se déroulant en Ukraine
Pendant plusieurs mois, la région de Kherson en Ukraine a subi une attaque soutenue de drones armées exploités par l’armée russe, ciblant principalement les non-combattants. Plus de 150 civils ont été tués et des centaines blessés, selon des sources officielles. Une enquête indépendante non dotée des droits de l’homme a conclu que ces attaques constituent des crimes contre l’humanité.
L’armée ukrainienne dépend également fortement des drones et aurait développé un «mur de drones» – une ligne défensive de véhicules aériens sans pilote armés (UAU) – pour protéger les sections vulnérables des frontières du pays.
Une fois la réserve des nations les plus riches qui pourraient se permettre les drones les plus élevés et les plus chers, l’Ukraine a prouvé qu’avec un peu d’ingéniosité, les drones à faible coût peuvent être modifiés à un effet mortel. Alors que les conflits dans le monde reflètent ce changement, la nature du combat moderne est réécrite.

© UNICEF / Oleksi Filippov
Rampant «déshumanisation numérique»
Mais, aussi dévastateur que puisse être cette forme moderne de guerre, le spectre montant des drones sans pilote ou d’autres armes autonomes ajoute une nouvelle urgence aux inquiétudes en cours sur les “ robots de tueurs ” qui pleuvent la mort du ciel, décidant pour eux-mêmes qui ils devraient attaquer.
«Le secrétaire général a toujours dit que l’utilisation de machines avec un pouvoir entièrement délégué, prendre la décision de prendre la vie humaine est tout simplement moralement répugnant», explique Izumi Nakamitsu, chef du Bureau des Nations Unies pour les affaires de désarmement. Il ne devrait pas être autorisé. Il devrait en fait être interdit par le droit international. C’est la position des Nations Unies. »
Human Rights Watch, une ONG internationale, a déclaré que l’utilisation d’armes autonomes sera l’exemple le plus récent et le plus sérieux de la «déshumanisation numérique», dans laquelle l’IA prend une foule de décisions qui modifient la vie sur des questions concernant les humains, tels que la police, l’application de la loi et le contrôle des frontières.
«Plusieurs pays avec des ressources importantes investissent massivement dans l’intelligence artificielle et les technologies connexes pour développer, des systèmes d’armes autonomes à base de terres et en mer. C’est un fait», prévient Mary Wareham, directrice de la division des armes sur les droits de l’homme. «Il est motivé par les États-Unis, mais d’autres grands pays tels que la Russie, la Chine, Israël et la Corée du Sud ont investi massivement dans des systèmes d’armes autonomes.»
Les défenseurs de la guerre axée sur l’IA soulignent souvent les limitations humaines pour justifier son expansion. Les soldats peuvent faire des erreurs de jugement, agir sur l’émotion, exiger le repos et, bien sûr, exiger des salaires – tandis que les machines, selon eux, s’améliorent chaque jour pour identifier les menaces en fonction du comportement et des modèles de mouvement. L’étape suivante, suggèrent certains partisans, permet aux systèmes autonomes de décider quand appuyer sur la gâchette.
Il y a deux principales objections pour laisser les machines prendre le dessus sur le champ de bataille: premièrement, la technologie est loin d’être infaillible. Deuxièmement, l’ONU et de nombreuses autres organisations considèrent l’utilisation des lois comme contraires à l’éthique.
«Il est très facile pour les machines de confondre les cibles humaines», explique Mme Wareham de Human Rights Watch. «Les personnes handicapées sont particulièrement à risque parce qu’elles se déplacent. Leurs fauteuils roulants peuvent être confondus avec des armes. Il est également préoccupé par le fait que la technologie de reconnaissance faciale et d’autres mesures biométriques ne sont pas en mesure d’identifier correctement les personnes ayant des tons de peau différents. L’IA est toujours imparfaite, et elle apporte avec elle les parties des personnes qui ont programmé ces systèmes.»
Quant aux objections éthiques et morales, Nicole Van Rooijen, directrice exécutive de Stop Killer Robots, une campagne de coalition pour un nouveau droit international sur l’autonomie dans les systèmes d’armes, dit qu’ils rendraient très difficile la détermination de la responsabilité des crimes de guerre et d’autres atrocités.
“Qui est responsable? Est-ce le fabricant? Ou la personne qui a programmé l’algorithme? Cela soulève toute une gamme de problèmes et de préoccupations, et ce serait un échec moral s’il était largement utilisé.”
Une interdiction d’ici 2026?
La vitesse à laquelle la technologie progresse et la preuve que les systèmes de ciblage ont permis à l’IA sont déjà utilisés sur le champ de bataille, ajoute à l’urgence derrière les appels à des règles internationales de la technologie.
En mai, des discussions informelles ont eu lieu au siège de l’ONU, au cours de laquelle M. Guterres a appelé les États membres à accepter un accord juridiquement contraignant pour réglementer et interdire leur utilisation d’ici 2026.
Les tentatives de réglementation et d’interdiction des lois ne sont pas nouvelles. En fait, l’ONU a tenu la première réunion des diplomates en 2014, aux Palais des Nations à Genève, où la présidente des experts de quatre jours, l’ambassadeur Jean-Hugues Simon-Michel de France, a décrit les lois comme «un problème émergent difficile sur l’agend de désarmement en ce moment». L’opinion était alors qu’une action préventive était nécessaire pour mettre en place des règles dans l’éventualité selon laquelle la technologie ferait des lois une réalité.
11 ans plus tard, les pourparlers sont en cours, mais il n’y a toujours pas de consensus sur la définition des armes autonomes, et encore moins une réglementation convenue sur leur utilisation. Néanmoins, les ONG et les Nations Unies sont optimistes que la communauté internationale progresse lentement vers une compréhension commune sur les questions clés.
«Nous ne sommes pas près de négocier un texte», explique Mme Rouijen de Stop Killer Robots. “Cependant, la présidente actuelle de la Convention sur certaines armes conventionnelles (un instrument de droit humanitaire des Nations Unies pour interdire ou restreindre l’utilisation de types d’armes spécifiques qui sont considérés comme provoquant des souffrances inutiles ou injustifiables aux combattants ou pour affecter les civils sans discrimination) ont pu former un texte qui est vraiment prometteur.
Mme Wareham, de Human Rights Watch, voit également les pourparlers de mai à l’ONU comme un pas en avant important. «Au moins 120 pays sont pleinement à bord avec l’appel pour négocier un nouveau droit international sur les systèmes d’armes autonomes. Nous voyons beaucoup d’intérêt et de soutien, y compris des lauréats de paix, des experts en IA, des travailleurs technologiques et des chefs religieux.»
«Il existe un accord émergent selon lequel les systèmes d’armes entièrement autonomes devraient être interdits», explique Mme Nakamitsu, de l’Office des Nations Unies pour les affaires de désarmement. «En ce qui concerne la guerre, quelqu’un doit être tenu responsable.»