Pour la première fois, des drones d’IA pourraient avoir attaqué des humains de manière totalement autonome,
« Sans nécessiter de connectivité de données entre l'opérateur et la munition »
Les drones sont un pilier du champ de bataille depuis des années maintenant, mais ils ont toujours nécessité un pilote humain pour appuyer sur la gâchette. Cela pourrait être sur le point de changer. L'année dernière, un groupe de soldats fidèles au général libyen Khalifa Haftar a été attaqué par des drones agissant de manière autonome, selon un récent rapport du groupe d'experts du Conseil de sécurité de l'ONU sur la Libye. Le rapport de 548 pages n'a pas précisé si l'incident avait fait des morts, mais il soulève des questions quant à l'inutilité des efforts mondiaux visant à interdire les "robots tueurs" autonomes avant leur construction.
Au cours de l'année, le gouvernement d'entente nationale reconnu par l'ONU a repoussé les forces affiliées à Haftar de la capitale libyenne Tripoli, et le drone pourrait être opérationnel depuis janvier 2020, ont noté les experts.
L'attaque de mars 2020 a été perpétrée par un drone quadcoptère – baptisé Kargu-2 et produit par la société turque de technologie militaire STM – « au cours d'un conflit entre les forces gouvernementales libyennes et une faction militaire dissidente dirigée par Khalifa Haftar, commandant de l'armée nationale libyenne », ont rapporté les experts. Ils ont ajouté : « Le Kargu-2 est équipé d'une charge explosive et le drone peut être dirigé vers une cible dans une attaque kamikaze, explosant à l'impact ».
Le Kargu est un drone de "flânerie" qui utilise une classification des objets basée sur l'apprentissage automatique pour sélectionner et engager des cibles, selon STM, et dispose également de capacités d'essaimage permettant à 20 drones de travailler ensemble.
Les drones fonctionnaient dans un mode autonome "très efficace" qui ne nécessitait aucun contrôleur humain et le rapport note : « Les systèmes d'armes autonomes létaux étaient programmés pour attaquer des cibles sans nécessiter de connexion de données entre l'opérateur et la munition : en fait, une véritable capacité de "tirer, oublier et trouver" » – ce qui suggère que les drones ont attaqué par eux-mêmes.
Selon le rapport, les forces d'Haftar se retiraient de Tripoli lorsqu'elles ont été « traquées et engagées à distance » par les drones Kargu-2. Les rebelles « n'étaient ni entraînés ni motivés pour se défendre contre l'utilisation efficace de cette nouvelle technologie et se sont généralement repliés en désordre », peut-on lire dans le rapport. Une fois en retraite, ils étaient soumis à un harcèlement continu de la part des véhicules aériens de combat sans pilote et des systèmes d'armes autonomes mortels. Si les faits sont avérés, ce sera la première fois qu'un drone autonome traque et attaque un humain.
Les mises en garde contre les "robots tueurs"
Par le passé, de nombreux chercheurs en robotique et en IA, dont Elon Musk, et plusieurs autres personnalités comme Stephen Hawking et Noam Chomsky ont demandé l'interdiction des « armes autonomes offensives », telles que celles qui ont le potentiel de rechercher et de tuer des personnes spécifiques en fonction de leur programmation.
« Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre », ont averti Elon Musk et une centaine de spécialistes de l'IA et la robotique, dans une lettre ouverte en 2017. Dans cette lettre, ils appelaient les Nations Unies à agir le plus vite possible et bannir les robots tueurs.
Les experts ont mis en garde contre le fait que les ensembles de données utilisés pour former ces robots tueurs autonomes à la classification et à l'identification d'objets tels que les bus, les voitures et les civils ne sont peut-être pas suffisamment complexes ou fiables, et que le système d'intelligence artificielle peut tirer de mauvaises leçons.
Ils ont également mis en garde contre la "boîte noire" de l'apprentissage automatique, dans laquelle le processus de prise de décision des systèmes d'IA est souvent opaque, ce qui pose un risque réel que des drones militaires entièrement autonomes exécutent les mauvaises cibles, les raisons restant difficiles à démêler.
Zachary Kallenborn, du Consortium national pour l'étude du terrorisme et des réponses au terrorisme dans le Maryland, a déclaré que cela pourrait être la première fois que des drones attaquent des humains de manière autonome et a tiré la sonnette d'alarme. « Quelle est la fragilité du système de reconnaissance des objets ? », Kallenborn a demandé dans le rapport. « ... à quelle fréquence il identifie mal les cibles ? »
Kellenborn, qui est consultant en sécurité nationale spécialisé dans les drones, estime que le risque de dérapage est plus grand lorsque plusieurs de ces drones autonomes communiquent et coordonnent leurs actions, comme dans un essaim de drones. « La communication crée des risques d'erreurs en cascade dans lesquels une erreur commise par une unité est partagée par une autre », a déclaré Kellenborn. « Si quelqu'un était tué dans une attaque autonome, cela représenterait probablement un premier cas historique connu d'armes autonomes basées sur l'intelligence artificielle utilisées pour tuer », a-t-il ajouté.
Jack Watling, du groupe de réflexion britannique sur la défense Royal United Services Institute, a déclaré : « Cela ne montre pas que les armes autonomes seraient impossibles à réguler », a-t-il dit. « Mais cela montre que la discussion continue d'être urgente et importante. La technologie ne va pas nous attendre ».
En août de l'année dernière, Human Rights Watch a averti de la nécessité d'une législation contre les "robots tueurs", tandis que le candidat à la mairie de New York, Andrew Yang, a appelé à une interdiction mondiale de ces armes – ce à quoi les États-Unis et la Russie s'opposent.
Dans son avis du mois dernier, le comité d’éthique de la défense, une structure de réflexion adossée au ministère français des Armées pour le conseiller sur les sujets les plus sensibles, a dit « Non » aux systèmes d’armes létales pleinement autonomes (SALA), mais n’a pas fermé la porte aux armes robotisées pilotées par l’homme SALIA (les systèmes d'armes létales intégrant de l'autonomie).
Cependant, conscient de la compétition qui s’est engagée à l’international et des risques de « décrochages » pour l’armée française, le comité a recommandé que la recherche dans « les domaines de l’intelligence artificielle de défense et des automatismes dans les systèmes d’armes » continue. Les travaux doivent « se poursuivre », selon l’avis du comité, considérant qu’il s’agit aussi là d’un moyen de se « défendre contre ce type d’armes au cas, qui n’est pas improbable, où un État adverse ou un groupe terroriste entreprendrait de les employer contre nos troupes ou la population française ».
Source : Rapport d'experts du Conseil de sécurité de l'ONU
Et vous ?
Que vous inspire ce rapport ?
Quel commentaire faites-vous des efforts mondiaux actuels visant à interdire les robots tueurs autonomes avant leur construction ?
Peut-on encore réguler efficacement les armes autonomes pour éviter de tels robots ?
Voir aussi :
Elon Musk appelle les Nations Unies à bannir les robots tueurs dans une lettre ouverte, signée par 116 spécialistes de l'IA et la robotique
https://intelligence-artificielle.de...prete-a-aller/
Thalès, le leader français de la sécurité et la défense refuse de concevoir des robots tueurs autonomes, et appelle à une législation internationale
La résistance contre les robots tueurs grandit : des militants de 35 pays à Berlin pour s'opposer à ces armes, et réclamer une initiative allemande
Partager