Que se passera-t-il si des robots tueurs sont piratés ou détournés ?
La question fait débat au sein de la communauté scientifique
Dans une lettre ouverte co-signée par une multitude de spécialistes en IA, Elon Musk a appelé les Nations Unies à tout simplement interdire les robots tueurs. « Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles vont propulser les conflits armés à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains puissent comprendre. Celles-ci peuvent être des armes de terreur, des armes que les despotes et les terroristes utilisent contre des populations innocentes et des armes détournées pour se comporter de manière indésirable. Nous n'avons pas assez de temps pour agir. Une fois que cette boîte de Pandore est ouverte, il sera difficile de la fermer », avertissent-ils.
En effet, la menace que représentent les robots tueurs ou armes autonomes létales a été largement démontrée. Les intelligences artificielles sur lesquelles reposent les systèmes de ces robots sont tout sauf inviolables. Elles ont prouvé à maintes reprises qu’elles étaient faillibles. Par exemple, des scientifiques ont réussi à induire une IA en erreur en altérant quelques éléments d’une tortue imprimée en 3D. Le résultat en a été que l’IA a considéré la tortue comme étant un fusil.
A l’argument de la faillibilité des IA, les défenseurs de la cause des robots tueurs répondent que l’apprentissage automatique est encore à ses débuts et qu’il suffisait de le laisser progresser afin de rendre les IA moins vulnérables. Toutefois, on est tenté de se demander quelle intelligence artificielle, quel système informatique connecté ne peut pas être piraté ou détourné ? Imaginez qu’un drone autonome se fasse pirater par un terroriste. Imaginez combien de personnes pourraient perdre la vie à cause de cette même technologie conçue pour empêcher au maximum les dommages collatéraux. Car, rappelons-le, l’idée des armes autonomes létales a germé dans le but d’empêcher les pertes en vies humaines résultant d’erreurs de jugement humaines. Imaginez qu’un pirate décide de prendre le contrôle, non pas d’un mais d’une flotte entière de drones. Imaginez les dégâts qu’il pourrait occasionner. Des gens mourraient par milliers et des pans entiers de villes seraient réduits en cendres.
Cependant, la triste réalité est que les gouvernements semblent ne pas prendre ou ne pas vouloir prendre conscience. Le gouvernement américain, par exemple a déjà annoncé une subvention de 2 milliards de dollars visant à aider à la production de la prochaine vague d’intelligences artificielles avancées, l’objectif visé étant de concevoir des machines pouvant communiquer et raisonner comme des humains et pouvant s’adapter à tout nouvel environnement ou à toute nouvelle situation.
Les avis des internautes sur la question sont tranchés. Ils expliquent que la conception de soldats robotiques pour remplacer ceux humains était une mauvaise idée. Ils ajoutent que la seule chose qui empêche les pays de se faire la guerre comme ils l’entendent, c’est le coût colossal en vies humaines que cela peut engendrer. Supprimer cette restriction équivaudrait à laisser libre cours à l’éventualité de nouveaux conflits et de nouvelles guerres. Et contrairement à ce que les dirigeants semblent penser, aucune guerre ne peut se faire sans que des gens ne meurent. Les sacrifices et les dommages collatéraux sont inhérents à toute guerre.
Source : MarketWatch
Et vous ?
Qu’en pensez-vous ?
Quelle est votre position sur les armes autonomes létales ?
Voir aussi
Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud en partenariat avec le fabricant d'armes Hanwha Systems
Elon Musk appelle les Nations Unies à bannir les robots tueurs dans une lettre ouverte signée par 116 spécialistes de l'IA et la robotique
Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes lors d'une conférence internationale sur l'IA
Partager