L’intelligence artificielle est-elle l’arme de la prochaine guerre froide ? Oui,
répond un chercheur en informatique
Un chercheur de l’université North Dakota State du nom de Jeremy Straub estime que l’intelligence artificielle sera l’arme de la prochaine guerre froide. Le chercheur fait cette affirmation en se basant sur la situation géopolitique actuelle qu’il compare à celle des années 1980. Selon lui, les deux situations sont assez similaires dans la mesure où « les États-Unis et la Russie s’accusent mutuellement d'ingérence dans les affaires intérieures ». Il ajoute que « la Russie a annexé un territoire malgré les objections des États-Unis », ce qui fait craindre un conflit militaire entre les deux Êtas, déclare le chercheur.
Comme pendant la guerre froide après la Seconde Guerre mondiale, les nations développent et construisent des armes basées sur une technologie de pointe, explique le chercheur. Il ajoute que « pendant la guerre froide, l'arme de choix était les missiles nucléaires, aujourd'hui c'est un logiciel, qu'il soit utilisé pour attaquer des systèmes informatiques ou des cibles dans le monde réel. » Jeremy Straub fait remarquer que « la rhétorique russe sur l'importance de l'intelligence artificielle s'accélère ». Selon lui, « au fur et à mesure que l'intelligence artificielle se développera, elle sera capable de prendre des décisions basées sur plus de données et plus rapidement que les humains. »
« Tout comme pendant la guerre froide entre les années 1940 et 1950 chaque partie a des raisons de craindre que son adversaire ne prenne le dessus sur le plan technologique », déclare le chercheur. En effet, ajoute-t-il, « lors d'une récente réunion à la Strategic Missile Academy près de Moscou, le président russe Vladimir Poutine a suggéré que l'IA pourrait être le moyen par lequel la Russie peut rééquilibrer le changement de pouvoir créé par les États-Unis. » D’après lui, certains médias russes auraient affirmé que l’IA serait la clé de la victoire de la Russie sur les États-Unis.
Ce sont tous ces facteurs qui font que le chercheur établisse un lien entre l’époque de la guerre froide et le contexte actuel du monde. « Cela ressemble remarquablement à la rhétorique de la guerre froide, où les États-Unis et les Soviétiques ont chacun accumulé suffisamment d'armes nucléaires pouvant éliminer toute vie humaine sur terre », dit-il. Le chercheur rappelle que c’est « cette course aux armements qui conduisit au concept de destruction mutuellement assurée : c’est-à-dire qu’aucune des deux parties ne risquait de s'engager dans une guerre ouverte sans risquer sa propre ruine. » N’ayant rien à gagner dans une confrontation directe, les deux parties s’étaient alors livrées à une guerre indirecte à travers de « petits conflits armés et des conflits politiques ». Aujourd'hui, plus de 30 ans après la fin de la guerre froide, les États-Unis et la Russie ont mis hors service des dizaines de milliers d'armes nucléaires, remarque le chercheur. Ce qui lui fait dire que toute guerre froide de nos jours impliquerait inéluctablement des cyberattaques et l’engagement des puissances nucléaires dans les conflits de leurs alliés.
Jeremy Straub estime que les deux parties sont considérées comme étant à force égales en ce qui concerne les cyberarmes, en particulier celles alimentées par l'IA. En effet, il déclare que « la Russie et les hackers soutenant ce pays ont espionné électroniquement, lancé des cyberattaques contre des centrales électriques, des banques, des hôpitaux et des systèmes de transport et se sont ingérés dans le processus électoral américain ». De l’autre côté, « les États-Unis sont certainement capables de répondre et peuvent l'avoir fait », selon le chercheur.
« Les menaces posées par les attaques-surprises des armes nucléaires et des armes sous-marines placées près des frontières d'un pays peuvent conduire certaines nations à confier des tactiques d'autodéfense rapides à un système d'IA », estime le chercheur. Ce qui rend l’IA aussi redoutablement efficace dans ce domaine précis c’est le fait qu’« en cas d'attaque, l'IA pourrait agir plus rapidement sans l'hésitation ou la dissidence potentielle d'un opérateur humain », déclare le chercheur. Il estime que cela peut constituer un moyen de dissuasion efficace, chacune des deux parties sachant que l’autre partie est prête à répondre et que toute attaque impliquerait une destruction mutuelle.
« L'IA peut également être utilisée pour contrôler des armes non nucléaires comme des véhicules sans pilote, des drones et d’autres cyberarmes », d’après le chercheur. Il estime que l’IA pourrait notamment aider à contrôler les véhicules sans pilote même si la communication avec ces derniers était perdue. De même, ajoute le chercheur, « les cyberarmes peuvent devoir fonctionner au-delà de la portée des communications ». Dans certains contextes, « leur réaction peut exiger une réponse si rapide qu’elles seraient mieux lancées et contrôlées par les systèmes d'IA ».
« Les attaques coordonnées par l'IA peuvent lancer des armes cybernétiques ou réelles presque instantanément » , déclare le chercheur. Cela donne d’après lui, la possibilité aux puissances de prendre « la décision d'attaquer avant même que quelqu'un ne s'en aperçoive ». Les systèmes d'IA peuvent changer les cibles et les techniques plus rapidement que les humains, déclare le Jeremy Straub. Par exemple, « un système d'IA pourrait lancer un drone pour attaquer une usine, observer des drones qui répondent pour se défendre et lancer une cyberattaque contre ces drones, sans interruption notable. »
La course pour le contrôle des systèmes d’intelligences artificielles n’en est qu’à ses débuts, à en croire les observations du chercheur. En effet, il estime qu’ « un pays qui pense que ses adversaires ont ou obtiendront des armes dotées d’intelligence artificielle voudra les avoir aussi ». Cependant, on est encore loin de l’époque où les États utiliseront l’intelligence artificielle pour mener des cyberattaques de façon ouverte. D’après lui, « les pays pourraient convenir d'une sorte de convention numérique de Genève pour limiter les conflits qui pourraient être déclenchés par l’intelligence artificielle ». Il estime cependant que cela ne suffirait probablement pas à arrêter « les attaques menées par des groupes nationalistes indépendants, des milices, des organisations criminelles, des terroristes entre autres. »
L’intelligence artificielle n’est pas qu’une source de conflit potentiel, estime le chercheur. « Les IA avancées peuvent créer des avantages pour les entreprises d'un pays et pas seulement sur le plan militaire. » Cependant, cela peut creuser les inégalités et désavantager notamment les pays qui n’ont pas les moyens financiers nécessaires pour se lancer dans une course à l’intelligence artificielle, d’après le chercheur. Il pense qu’à terme, comme cela a été le cas pour les armes nucléaires, l’IA pourrait n’être qu’un moyen de dissuasion sur le plan militaire.
Source : theconversation.com
Et vous ?
Que pensez-vous de l'analyse du chercheur ?
Voir aussi
Bill Gates estime que l’IA rendra l’homme plus efficace dans son travail et lui donnera plus de temps libre dans le futur
IA : Google étend ses activités en France en ouvrant un nouveau centre dédié à la recherche dans le domaine de la santé et la science
L’IA et l’analyse prédictive permettraient de lutter plus efficacement contre les cyberattaques d’après les entreprises de cybersécurité françaises
Partager