IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #121
    Invité
    Invité(e)
    Par défaut
    Bonsoir,

    L'Autriche veut des règles éthiques sur l'utilisation des robots tueurs dotés d'IA sur le champ de bataille

    Quel est votre avis sur le sujet ?
    De la part d'un pays "bien pensant" comme l'Autriche c'est louable ... et perdu d'avance. Les USA , la Russie , Israel , Chine, et j'en passe ne vont pas attendre des législations de "bien pensant" ...

    De forme rectangulaire et avec des marches de char, son sommet est équipé de capteurs, de caméras et d'un espace pour les armements. Cependant, la caractéristique la plus unique du Carmel se trouve à l'entrée de la trappe arrière, qui mène vers un espace rempli d'équipements que l'on trouve le plus souvent dans la chambre d'un “adolescent”.
    Le Carmel israelien me fait bien rire ... la réutilisation de vieux M113 avec un armement "neuf" rien de révolutionnaire ... Éventuellement "l'automatisation" de roulement et du tir .

    Les robots tueur devraient-ils être interdits ?
    On se réveille un peu tard . Dans la logique oui. Dans la réalité c'est bien plus compliqué. Puis bon les "robots tueurs" et autres armes , mêmes des automates "tueurs" ne dates pas d'hier ...

    Citation Envoyé par Ryu2000 Voir le message
    Ce serait chouette qu'on interdise aux états d'utiliser des robots contre leur peuple, par contre quand c'est la guerre il n'y a plus de règle.
    Exactement , faites ce que je dis pas ce que je fais quoi ...

    ONU. Soixante-dix ans après les Conventions de Genève, les violations du droit international humanitaire qui ravagent la vie des civils en temps de guerre illustrent un échec catastrophique

    Citation Envoyé par Ryu2000 Voir le message
    Les pays peuvent signer toutes les conventions que vous voulez, les puissances militaire comme les USA et Israël continueront de développer des armes en secret. Quoi que parfois les pays sortent d'un traité officiellement :
    Comme d'hab , l'UE et sa bien pensance ... pendant ce temps nos allier/ennemis prennent de l'avance ... USA , Russie, Chine ...

    Citation Envoyé par Ryu2000 Voir le message
    Il est probable que les armes autonomes jouent un rôle lors de la prochaine guerre mondiale. Les gouvernements investissent beaucoup dans l'IA militaire.
    Hé beh oui , des sommes délirantes même !

    Citation Envoyé par Jesus63 Voir le message
    Je me coucherais moins bête, mais je ne suis pas sûr de pouvoir dormir après avoir lu ceci...
    En librairie parfois je zieute des revues comme "défence internationale" ou alors des sites spécialisés qui parlent des armées du monde. On serait étonné de voir par moment , les décisions même discrètes de certains pays ...

  2. #122
    Membre actif
    Homme Profil pro
    Consultant informatique
    Inscrit en
    Octobre 2012
    Messages
    82
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 48
    Localisation : Suisse

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : Finance

    Informations forums :
    Inscription : Octobre 2012
    Messages : 82
    Points : 277
    Points
    277
    Par défaut
    Citation Envoyé par Bill Fassinou Voir le message
    le pays affirme que seuls les humains doivent décider des questions de vie ou de mort
    Depuis quand les humains sont réellement capable d'une telle décision ?

    A travers toute la planète la notion même de vie ou de mort n'est pas unique.
    Rien qu'au US d'un état à un autre les conclusions sur la vie et la mort d'une personne sont différentes.

    Au moins avec une IA j'aurais l'impression d'une équité; Que si je pose mon arme celui en face ne vas pas me tirer dessus par nervosité.

  3. #123
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 855
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 855
    Points : 18 797
    Points
    18 797
    Par défaut
    Citation Envoyé par tanaka59 Voir le message
    Comme d'hab , l'UE et sa bien pensance ... pendant ce temps nos allier/ennemis prennent de l'avance ... USA , Russie, Chine ...
    Il doit y avoir des pays membre de l'UE qui sont en train d'augmenter leur budget militaire.
    L'armée française voit son budget poursuivre sa remontée en puissance
    En hausse pour la troisième année consécutive, le budget de la défense équivaut à un plan de relance pour l'industrie de la défense.
    L’Allemagne portera ses dépenses militaires à 2% du PIB d’ici 2031, promet Mme Kramp-Karrenbauer

    De toute façon je crois que les USA (OTAN) ont demandé aux autres pays d'augmenter leur budget militaire.
    Otan : les USA demandent aux pays de l'UE d'augmenter leurs budgets militaires
    La troisième guerre mondiale approche il faut se préparer un minimum. Même les Suisses préparent leur défense (parce que des gens vont essayer d'entrer en Suisse et il faut les en empêcher) : L'armée devrait obtenir 24 milliards pour 2020-2024.

    Citation Envoyé par tanaka59 Voir le message
    Hé beh oui , des sommes délirantes même !
    La FED créer des dollars à l'infini, les USA jouent avec un cheat code, quand t'as l'argent illimité tu peux injecter des milliards et des milliards sans aucune limite.

  4. #124
    Expert éminent Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    Mars 2014
    Messages
    1 790
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Mars 2014
    Messages : 1 790
    Points : 7 285
    Points
    7 285
    Par défaut
    Les britanniques prévoient un quart de leurs effectifs en robots autonomes à l'horizon 2025(source zdnet). Dans une telle proportion, quid de la sécurité dans ce beau projet ?

  5. #125
    Membre expérimenté Avatar de stigma
    Homme Profil pro
    Créateur jeux vidéo
    Inscrit en
    Octobre 2003
    Messages
    1 118
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 74
    Localisation : France, Pas de Calais (Nord Pas de Calais)

    Informations professionnelles :
    Activité : Créateur jeux vidéo
    Secteur : Arts - Culture

    Informations forums :
    Inscription : Octobre 2003
    Messages : 1 118
    Points : 1 614
    Points
    1 614
    Par défaut
    Apocalypse 9-10

  6. #126
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 982
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 982
    Points : 207 819
    Points
    207 819
    Par défaut Plus de 60 pays appellent à une utilisation « responsable » de l'IA militaire
    Les États-Unis, la Chine et une soixantaine d'autres pays appellent à une utilisation « responsable » de l'IA militaire,
    les critiques soulignent que cette déclaration n'est pas juridiquement contraignante

    Plus de 60 pays, dont les États-Unis et la Chine, ont signé jeudi un modeste « appel à l'action » approuvant l'utilisation responsable de l'intelligence artificielle (IA) dans l'armée. Des experts des droits de l'homme et des universitaires ont noté que la déclaration n'était pas juridiquement contraignante et ne répondait pas à des préoccupations telles que les drones guidés par l'IA, les «slaughterbots» qui pourraient tuer sans intervention humaine ou le risque qu'une IA puisse aggraver un conflit militaire.

    Cependant, la déclaration était un résultat tangible du premier sommet international sur l'IA militaire, coorganisé par les Pays-Bas et la Corée du Sud à La Haye.

    Les signataires ont déclaré qu'ils s'étaient engagés à développer et à utiliser l'IA militaire conformément aux « obligations juridiques internationales et d'une manière qui ne porte pas atteinte à la sécurité, à la stabilité et à la responsabilité internationales ».


    La montée et l'avancement soudains des systèmes d'intelligence artificielle au cours des derniers mois ont fait craindre ses effets potentiellement néfastes sur la société. Non seulement l'IA pourrait menacer les emplois humains et la créativité, mais l'utilisation de machines intelligentes dans la guerre pourrait avoir des conséquences catastrophiques. Pour faire face au danger des « slaughterbots », le premier Sommet mondial sur l'intelligence artificielle responsable dans le domaine militaire (REAIM) s'est tenu la semaine dernière, ce qui a conduit les pays à signer un accord pour placer l'utilisation responsable de l'IA plus haut dans l'agenda politique.

    Le nom « slaughterbots » (également appelés « systèmes d'armes létales autonomes » ou « robots tueurs ») est le nom d'une vidéo de plaidoyer pour le contrôle des armements de 2017 présentant un scénario dramatisé dans un futur proche où des essaims de microdrones bon marché utilisent l'intelligence artificielle et la reconnaissance faciale pour assassiner des opposants politiques sur la base de critères préprogrammés. La vidéo a été publiée sur YouTube par le Future of Life Institute et Stuart Russell, professeur d'informatique à Berkeley, le 12 novembre 2017. La vidéo est rapidement devenue virale, gagnant plusieurs millions de vues. La vidéo a également été projetée lors de la réunion de novembre 2017 de la Convention des Nations Unies sur certaines armes classiques à Genève.


    Un autre scénario parle de l'époque où tout le monde disait que les IA embarqués dans les robots tueurs ne cibleraient que des militaires, etc. avant une catastrophe à l'échelle mondiale. Regardez plutôt.


    Un groupe de dirigeants gouvernementaux, universitaires et militaires du monde entier a passé ces derniers jours à parler de la nécessité d'aborder l'utilisation de l'intelligence artificielle dans la guerre.

    Leurs conclusions ? Nous devons agir maintenant pour éviter de réglementer l'IA seulement après qu'elle a provoqué une catastrophe humanitaire ou un crime de guerre.

    Le premier sommet mondial sur l'intelligence artificielle responsable dans le domaine militaire, ou REAIM, a réuni des représentants de plus de 60 pays (dont les États-Unis et la Chine) à La Haye aux Pays-Bas pour discuter et finalement signer un appel à l'action sur la manière de rendre responsable l'utilisation de l'IA dans l'armée.

    La Russie n'a pas participé.

    Les signataires ont convenu que l'accélération de l'utilisation de l'IA signifie qu'il est essentiel d'agir maintenant pour établir des normes militaires internationales en matière d'IA, ainsi que pour résoudre les problèmes de manque de fiabilité de l'IA, la responsabilité des humains dans le processus décisionnel de l'IA, les conséquences involontaires de l'utilisation de l'IA et l'escalade potentielle des risques.

    L'un des moyens par lesquels le sommet espère atteindre ses objectifs consiste à créer une commission mondiale sur l'IA qui sensibilisera à la manière dont l'IA peut et doit être utilisée dans le domaine militaire, et à la manière dont cette technologie peut être développée et déployée de manière responsable.

    Nom : realm.png
Affichages : 3137
Taille : 619,4 Ko

    L'appel à l'action, signé par tous les participants à l'exception d'Israël, a confirmé que les nations s'étaient engagées à développer et à utiliser l'IA militaire conformément aux « obligations juridiques internationales et d'une manière qui ne porte pas atteinte à la sécurité, à la stabilité et à la responsabilité internationales ».

    La sous-secrétaire d'État américaine au contrôle des armements, Bonnie Jenkins, a appelé à une utilisation responsable de l'IA dans les situations militaires. « Nous invitons tous les États à se joindre à nous pour mettre en œuvre les normes internationales, en ce qui concerne le développement militaire et l'utilisation de l'IA et des armes autonomes », a déclaré Jenkins. « Nous tenons à souligner que nous sommes ouverts à un engagement avec tout pays souhaitant nous rejoindre ».

    Le représentant de la Chine, Jian Tan, a déclaré au sommet que les pays devraient « s'opposer à la recherche d'un avantage militaire absolu et de l'hégémonie par le biais de l'IA » et travailler par l'intermédiaire des Nations Unies.


    Les avantages et les inconvénients ont été évoqués durant le sommet

    Parmi les autres problèmes que les signataires ont convenu d'aborder, citons la fiabilité de l'IA militaire, les conséquences imprévues de son utilisation, les risques d'escalade et la manière dont les humains doivent être impliqués dans le processus de prise de décision.

    En 2019, le DoD a déclaré que les humains auront toujours le dernier mot sur la question de savoir si les systèmes d'armes autonomes ouvrent le feu sur des cibles réelles. En ce qui concerne les conséquences involontaires mentionnées dans la déclaration, certains craignent que la poussée de l'Inde vers des systèmes militaires alimentés par l'IA ne conduise à une guerre nucléaire avec le Pakistan en raison du risque accru de frappes préventives.

    Certains participants ont noté les avantages de l'utilisation de l'IA dans les conflits, en particulier en Ukraine, où l'apprentissage automatique et d'autres technologies ont été utilisés pour repousser un agresseur plus grand et plus puissant.

    Une discussion lors du sommet était de savoir dans quelle mesure les humains seraient responsables des actions entreprises par les systèmes autonomes, la conclusion semblant pencher vers les personnes étant les décideurs finaux lorsqu'il s'agit de tirer un système autonome ou d'adopter une action recommandée par une IA.

    « Imaginez un missile frappant un immeuble d'habitation », a déclaré le vice-premier ministre néerlandais Wopke Hoekstra. « En une fraction de seconde, l'IA peut détecter son impact et indiquer où les survivants pourraient se trouver. Encore plus impressionnant, l'IA aurait pu intercepter le missile en premier lieu. Pourtant, l'IA a également le potentiel de détruire en quelques secondes ».

    Hoekstra a poursuivi en expliquant dans son discours d'ouverture du sommet comment le statut actuel de l'IA lui rappelait les règles de guerre internationales antérieures établies pour prévenir les violations des droits de l'homme. « L'interdiction d'étendre les balles dum-dum qui ont laissé des victimes avec des blessures horribles, l'interdiction des armes biologiques et chimiques et le traité pour empêcher la propagation des armes nucléaires pourraient tous être considérés comme des parallèles », a déclaré Hoekstra.

    Mais il y a une grande différence entre les règles édictées pour empêcher l'utilisation d'armes inhumaines et l'IA : les autorités envisagent déjà d'agir avant que le pire ne se produise. « Nous avons la possibilité d'étendre et de renforcer l'ordre juridique international et d'empêcher qu'il ne s'effondre », a déclaré Hoekstra.

    Quant au type d'applications vers lesquelles une utilisation responsable de l'IA pourrait être utilisée en temps de guerre, la ministre néerlandaise de la Défense Kajsa Ollongren a laissé entendre qu'il n'y avait aucune raison pour qu'elle ne puisse pas être utilisée pour sauver des vies : « Avec les cadres et la législation appropriés en place, l'utilisation de l'IA rendra nos processus opérationnels et logistiques plus simples et plus efficaces. De cette façon, non seulement nous protégeons nos propres troupes, mais nous pouvons également limiter les dommages et les pertes dans la mesure du possible », dit Ollongren.

    Des limitations légales à l'utilisation de l'IA

    Les critiques disent que la déclaration n'est pas juridiquement contraignante et ne répond pas à de nombreuses autres préoccupations concernant l'utilisation de l'IA dans les conflits militaires, y compris les drones guidés par l'IA.

    D'autres craintes concernant les nombreuses applications potentielles de l'IA dans la guerre ont été soulevées la semaine dernière après que Lockheed Martin a révélé que son nouveau jet d'entraînement avait été piloté par l'intelligence artificielle pendant plus de 17 heures, marquant la première fois que l'IA était engagée de cette manière sur un avion tactique. Ailleurs, l'ancien PDG de Google et président d'Alphabet, Eric Schmidt, a déclaré que l'intelligence artificielle pourrait avoir un effet similaire sur les guerres comme l'introduction des armes nucléaires.

    La conférence intervient alors que l'intérêt pour l'IA est à son plus haut niveau grâce au lancement du programme ChatGPT d'OpenAI et que l'Ukraine a utilisé la reconnaissance faciale et les systèmes de ciblage assisté par l'IA dans sa lutte contre la Russie.

    Les organisateurs n'ont pas invité la Russie après son invasion de l'Ukraine en 2022, que Moscou appelle une « opération militaire spéciale ». L'Ukraine n'a pas participé.

    Israël a participé à la conférence, mais n'a pas signé la déclaration.

    La sous-secrétaire d'État américaine au contrôle des armements, Bonnie Jenkins, a proposé un cadre américain pour une utilisation militaire responsable de l'IA. Les États-Unis et d'autres pays puissants ont été réticents à accepter des limitations légales à l'utilisation de l'IA, de peur que cela ne les désavantage par rapport à leurs rivaux.

    En 2021, le comité d'éthique de l'armée française disait « non, mais » aux « robots tueurs »

    « Non » aux systèmes d’armes létaux pleinement autonomes (SALA), parfois résumés sous l’appellation « robots tueurs », mais la porte reste ouverte aux armes robotisées pilotées par l’homme. C’est en substance le contenu d’un avis rendu le 29 avril 2021 par le comité d’éthique de la défense, une structure de réflexion adossée au ministère français des Armées pour le conseiller sur les sujets les plus sensibles. Les membres de cette structure indépendante approuvent ainsi l’introduction d’une certaine dose d’autonomie dans les systèmes d’armes, mais pas question d'entériner le principe de « robots tueurs », qui excluent tout contrôle humain. Ces robots, boostés par l’intelligence artificielle, utilisent eux-mêmes un logiciel intégré pour trouver et frapper des cibles.

    Les conclusions du Comité sont claires : l'emploi par les forces armées de systèmes d'armes létales autonomes serait « absolument contraire au principe constitutionnel de nécessaire libre disposition de la force armée et au principe de continuité de la chaîne de commandement ». Par conséquent, l'emploi des SALA ne peut qu’être refusé tout comme la fabrication et l’exportation.

    Soit le rejet de l’utilisation, sur un théâtre de guerre, de toute forme d’arme programmée dont l’homme n’aurait pas la maîtrise complète. Ces systèmes sont acceptables à condition qu'ils soient toujours supervisés par l'Homme. En revanche, les systèmes d'armes létales complètement autonomes, qui excluent tout contrôle humain, pourraient donc se révéler dangereux et doivent être interdits. « La France confirme qu’elle ne développera et n’emploiera pas » de SALA, écrivent ainsi les dix-huit membres civils et militaires de ce comité où siège notamment l’ancien chef d’état-major des armées, le général Henri Bentégeat.

    Le comité d’éthique de la défense ne voit ainsi pas d’objection à l’introduction d’une certaine dose d’autonomie et donc de recours aux SALIA (systèmes d’armes létaux intégrant de l’autonomie). Ce qui distinguerait les SALA des SALIA, « c'est une différence de nature qui tient à la place de l'humain dans certaines fonctions critiques », peut-on lire dans le rapport.

    Les SALA ont été conçu pour faire évoluer ses propres règles de fonctionnement et redéfinir tout seul sa mission. Ils se passent ainsi de l’appréciation de la situation par le commandement. Les SALIA peuvent se voir attribuer la responsabilité et l’exécution de certaines tâches de façon autonome, mais de manière temporaire et uniquement pour des missions d’identification, de classification, d’interception ou d’engagement. Le comité d’éthique précise bien qu’ils ne peuvent prendre d’initiatives létales sans contrôle humain.

    La présence de robots aux côtés des combattants ne relève plus depuis longtemps de la science-fiction, pas plus que les systèmes automatisés. À terre ou sur mer, les missiles sol-air Aster sont capables d’identifier des cibles pénétrant leur périmètre de défense tout comme le système Phalanx CIWS sur les bâtiments américains.

    Conscient de la compétition qui s’est engagée à l’international et des risques de « décrochages » pour l’armée française, le comité ne ferme toutefois pas la porte à la recherche dans « les domaines de l’intelligence artificielle de défense et des automatismes dans les systèmes d’armes ». Les travaux doivent « se poursuivre », selon l’avis du comité, considérant qu’il s’agit aussi là d’un moyen de se « défendre contre ce type d’armes au cas, qui n’est pas improbable, où un État adverse ou un groupe terroriste entreprendrait de les employer contre nos troupes ou la population française ».

    La balle est maintenant dans le camp de la ministre des Armées qui doit examiner le texte attentivement avec ses équipes avant toute communication officielle.

    Source : REAIM 2023

    Et vous ?

    Pour ou contre l'utilisation de l'IA dans l'armée ? Pourquoi ?
    Que pensez-vous de la vidéo plaidoyer Slaughterbots ? A-t-elle, selon vous, la possibilité de devenir réalité ? Dans quelles conditions ?
    Laquelle des deux vidéos vous interpelle le plus ?
    Que pensez-vous de l'appel à l'action pour une utilisation « responsable » de l'IA militaire ?
    Étant donné que cet appel n'est pas contraignant, a-t-il, selon vous, une valeur ? Des vœux pieux à ce niveau ?
    D'ailleurs, qui va s'assurer que les pays respectent leurs engagements non contraignants ?
    Quelle lecture faites-vous de la situation ?

    Voir aussi :

    L'Europe estime qu'une IA ne doit pas avoir le droit de vie ou de mort sur le champ de bataille et appelle à interdire les robots tueurs
    L'Autriche veut des règles éthiques sur l'utilisation des robots tueurs dotés d'IA sur le champ de bataille, le pays affirme que seuls les humains doivent décider des questions de vie ou de mort

  7. #127
    Membre éclairé
    Homme Profil pro
    retraité
    Inscrit en
    Avril 2009
    Messages
    375
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 92
    Localisation : France, Essonne (Île de France)

    Informations professionnelles :
    Activité : retraité
    Secteur : Associations - ONG

    Informations forums :
    Inscription : Avril 2009
    Messages : 375
    Points : 774
    Points
    774
    Par défaut
    Juridiquement contraignante
    : j'aime le terme ! (qui satisfait l'esprit)

  8. #128
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 089
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 089
    Points : 56 468
    Points
    56 468
    Par défaut Des employés de Google DeepMind poussent l'entreprise à abandonner les contrats militaires
    Des employés de Google DeepMind poussent l'entreprise à abandonner les contrats militaires
    Dans un contexte de protestations et d’appels à l’échelle mondiale contre l’utilisation de l’IA à des fins militaires

    Des travailleurs de Google DeepMind font pression sur l'entreprise pour qu'elle abandonne les contrats militaires, dans un contexte de tensions croissantes concernant les relations de l'entreprise avec Israël. Ces derniers viennent allonger la liste des participants à un mouvement qui a vu des protestataires devant les bureaux d’entreprise comme OpenAI et Google afin de protester contre l’utilisation de l’intelligence artificielle à des fins militaires. Ces sorties font suite à des échecs à répétition des négociations sur les robots tueurs aux Nations unies. En d’autres termes, chaque pays poursuit avec le développement de robots tueurs autonomes au mépris des appels à réglementer les usages de l’intelligence artificielle à l’échelle mondiale.

    Ces manifestations font suite à la suppression par OpenAI, en début d’année, d'une clause de sa politique d'utilisation qui interdit l'utilisation de l'intelligence artificielle à des fins militaires et au début de la collaboration de l’entreprise avec le Pentagone.

    Jusqu'au 10 janvier, la page des « politiques d'utilisation » d'OpenAI comprenait une interdiction des « activités présentant un risque élevé de dommages physiques, y compris », plus précisément, le « développement d'armes » et les « activités militaires et de guerre ». Cette interdiction des applications militaires, formulée en termes clairs, semble exclure toute utilisation officielle, et extrêmement lucrative, par le ministère de la défense ou toute autre armée nationale. La nouvelle politique conserve l'injonction de ne pas « utiliser notre service pour vous nuire ou nuire à autrui » et donne comme exemple « le développement ou l'utilisation d'armes », mais l'interdiction générale de l'utilisation « militaire et de guerre » a disparu.

    Nom : 0.png
Affichages : 4294
Taille : 130,0 Ko

    « Plusieurs laboratoires spécialisés en intelligence artificielle et experts se rejoignent : l’IA est susceptible d’exterminer l’humanité », souligne Pause AI sur son site web.

    « Je pense qu'une bonne analogie serait la façon dont les humains traitent les animaux. Ce n'est pas que nous détestons les animaux. Je pense que les humains aiment les animaux et ont beaucoup d'affection pour eux. Mais lorsqu'il s'agit de construire une autoroute entre deux villes, nous ne demandons pas la permission aux animaux. Nous le faisons simplement parce que c'est important pour nous. Je pense que, par défaut, c'est le type de relation qui s'établira entre nous et l’intelligence artificielle générale (AGI) », confirme le scientifique en chef d’OpenAI dans un documentaire.

    Nom : 1.png
Affichages : 753
Taille : 15,5 Ko

    L’intelligence artificielle sert déjà à traquer des cibles sur les théâtres de guerre et à tuer sans intervention humaine

    Suite aux attaques menées par les militants du Hamas le 7 octobre de l’année précédente, les forces israéliennes ont frappé plus de 22 000 cibles à l'intérieur de Gaza. Pour y parvenir, elles mettent à contribution une intelligence artificielle dénommée « Gospel » afin d'identifier en temps réel le plus grand nombre de cibles ennemies.


    En effet, en septembre 2022, l'armée israélienne a commencé à installer une arme automatique à un poste de contrôle très fréquenté de la ville d'Hébron (Al-Khalil), en Cisjordanie occupée. Les tourelles jumelles ont été installées au sommet d'une tour de garde surplombant le camp de réfugiés d'Al-Aroub. « Elle tire toute seule sans intervention de la part du soldat. Quand un soldat israélien voit un petit garçon, il appuie sur un bouton ou quelque chose comme ça et elle tire toute seule. Elle est très rapide, même plus rapide que les soldats. Les bombes lacrymogènes qu'il tire peuvent atteindre l'extrémité du camp et tout le reste », a déclaré un résident du camp.

    La tourelle télécommandée a été développée par la société de défense israélienne Smart Shooter, qui a mis au point un système de contrôle de tir autonome appelé SMASH, qui peut être fixé sur des fusils d'assaut pour suivre et verrouiller des cibles à l'aide d'un traitement d'image basé sur l'intelligence artificielle. Le site Web de la société appelle ce système "One Shot-One Hit" (qui pourrait être traduit en français par : "un tir - un succès". Elle se vante d'avoir réussi à "combiner un matériel simple à installer avec un logiciel de traitement d'image avancé pour transformer des armes légères de base en armes intelligentes du XXIe siècle".


    La société affirme que la technologie SMASH permet de surmonter les défis auxquels sont confrontés les soldats lors des batailles, tels que l'effort physique, la fatigue, le stress et la pression mentale pour viser avec précision et assurer le succès du tireur. « Notre objectif est de permettre à tous les corps d'infanterie de bénéficier des armes de précision. Quelle que soit l'expérience ou la mission du soldat, notre système lui permet de ne pas faire d'erreur lorsqu'il tire et de toucher la cible sans faute. Tout soldat devient un véritable tireur d'élite », a déclaré Michal Mor, fondateur et PDG de Smart Shooter, lors d'une interview en 2020.

    La tourelle vue à Hébron n'est pas annoncée sur le site Web de l'entreprise israélienne, mais deux autres tourelles automatisées, 'SMASH HOPPER' et 'SMASH HOPPER P', sont équipées de fusils d'assaut et du système Smart Shooter. « Le HOPPER peut être monté dans plusieurs configurations, notamment sur un trépied, un mât fixe, un navire de surface et des véhicules », indique le site Web de l'entreprise. Dans l'ensemble, l'entreprise indique que la technologie SMASH est censée améliorer l'efficacité des missions en engageant avec précision et en éliminant les cibles terrestres, aériennes, statiques ou mobiles, de jour comme de nuit.

    « Habituellement, le terroriste se trouve dans un environnement civil avec de nombreuses personnes que nous ne voulons pas blesser. Nous permettons au soldat de regarder à travers son système de contrôle de tir, pour s'assurer que la cible qu'il veut atteindre est la cible légitime. Une fois qu'il aura verrouillé la cible, le système s'assurera que la balle sera libérée lorsqu'il appuiera sur la gâchette, uniquement sur la cible légitime et qu'aucun des passants ne pourra être touché par l'arme », a déclaré Mor. Les militants des droits de l'homme s'inquiètent de "la déshumanisation numérique des systèmes d'armes".

    Selon les médias locaux, l'armée israélienne a déclaré qu'elle teste la possibilité d'utiliser le système pour appliquer des méthodes approuvées de dispersion de la foule, qui n'incluent pas le tir de balles réelles. « Dans le cadre des préparatifs améliorés de l'armée pour faire face aux personnes qui perturbent l'ordre dans la région, elle examine la possibilité d'utiliser des systèmes télécommandés pour employer des mesures approuvées de dispersion de foule. Cela n'inclut pas le contrôle à distance de tirs à balles réelles », explique un porte-parole de l'armée israélienne. Mais cela n'a pas suffi à calmer les craintes des militants des droits de l'homme.

    L'armée israélienne a également précisé qu'au cours de sa phase pilote, le système n'utilisera que des balles à pointe éponge. Cependant, des experts ont signalé qu'à plusieurs reprises, des balles à pointe éponge ont causé des blessures permanentes à des personnes en Cisjordanie occupée et en Israël, certaines ayant même perdu leurs yeux. Des militants des droits de l'homme d'Hébron ont exprimé leur inquiétude quant à la défaillance du système qui pourrait avoir un impact sur de nombreuses personnes, notant que le système a été placé au centre d'une zone fortement peuplée, avec des centaines de personnes passant à proximité.

    En outre, les militants des droits de l'homme, ainsi que d'autres critiques, affirment également que ce dispositif est un nouvel exemple de l'utilisation par Israël des Palestiniens comme cobayes, ce qui lui permettrait de commercialiser sa technologie militaire comme testée sur le terrain auprès des gouvernements du monde entier. « Je vois cela comme une transition du contrôle humain au contrôle technologique. En tant que Palestiniens, nous sommes devenus un objet d'expérimentation et de formation pour l'industrie militaire israélienne de haute technologie, qui n'est pas responsable de ce qu'elle fait », a déclaré un habitant de la région.

    Les armes létales autonomes sont de plus en plus utilisées dans le monde. Les drones, notamment les drones kamikazes, sont largement utilisés de l'Ukraine en l'Éthiopie et les armes télécommandées ont été utilisées par les États-Unis en Irak, par la Corée du Sud le long de la frontière avec la Corée du Nord et par les rebelles syriens. Par ailleurs, la dépendance de l'armée israélienne à l'égard des systèmes automatisés s'est accrue au fils des ans. Ces dernières années, Israël a adopté de plus en plus de systèmes automatisés à des fins militaires, dont certains sont controversés. Cela comprend des robots et des chars d'assaut dotés d'une intelligence artificielle.

    Un rapport a révélé qu'Israël avait déployé un système élaboré de caméras en Cisjordanie occupée pour contrôler et surveiller les Palestiniens. Ces caméras seraient reliées à une base de données appelée "Blue Wolf". La base de données comprendrait des détails et des photos des Palestiniens, notamment les numéros d'identité, l'âge, le sexe, l'adresse, les numéros de plaque d'immatriculation, les liens avec d'autres individus, le statut professionnel en Israël et les impressions négatives que les soldats ont du comportement d'un Palestinien lorsqu'ils le rencontrent. Hébron aurait été l'une des premières villes à utiliser ce système.

    Selon d'autres rapports, en 2018, l'armée israélienne a commencé à utiliser un drone capable de lancer des gaz lacrymogènes pour disperser les manifestants dans la bande de Gaza. En 2021, même la police israélienne aurait commencé à employer de tels drones contre des manifestants en Israël. Dans ce contexte, beaucoup estiment que le déploiement des armes létales autonomes va davantage s'accélérer. Elon Musk, PDG de Tesla, affirme : « les drones autonomes sont le futur. Ce n’est pas que je veuille que l’avenir soit ainsi fait, mais c’est juste que c’est inéluctable. L’ère des avions de chasse est révolue ».

    En Europe, Milrem Robotics, leader européen en matière de robotique et de systèmes autonomes, a partagé en juin dernier une vidéo mettant en scène un char doté d'une IA qui fait exploser des voitures et d'autres cibles. L'entrepreneur a déclaré que le char, baptisé Type-X, est conçu pour permettre aux troupes de "percer les positions défensives de l'ennemi avec un risque minimal". Il devrait fournir aux troupes "une puissance de feu et une utilisation tactique égales ou supérieures à celles d'une unité équipée de véhicules de combat d'infanterie". Les critiques ont déclaré que la démonstration reflète un futur dystopique de la guerre.

    Le développement d’armes autonomes se poursuit donc en parallèle de la multiplication des appels à réglementer les usages de l’intelligence artificielle à l’échelle mondiale

    L’un des plus récents est celui du Pape François. Ce dernier appelle à un traité international juridiquement contraignant pour réglementer l'intelligence artificielle. Motifs : les algorithmes ne doivent pas être autorisés à remplacer les valeurs humaines et l’humanité doit éviter de tomber dans une dictature technologique qui menace l’existence humaine. Le pape a lancé cet appel dans un message dans le cadre des préparatifs de la Journée mondiale de la paix qui se célèbre tous les 1ers janviers par l’Eglise catholique romaine. Le titre du message, qu’il est de tradition d’envoyer aux dirigeants mondiaux et aux responsables d'institutions telles que les Nations unies, est « L'intelligence artificielle et la paix. »

    Le dernier message du Pape s’inscrit dans la continuité du Rome Call for an AI Ethics. Cette initiative du Vatican vise à appeler les intervenants mondiaux à la mise sur pied de normes éthiques plus strictes en matière de développement d’intelligence artificielle. IBM et Microsoft sont les premières entreprises à s’y arrimer, suivis du gouvernement italien et de l’Organisation des Nations Unies pour l’alimentation et l’agriculture.

    Le Rome Call For an AI Ethics énonce 6 grands principes : transparence, inclusion, responsabilité, impartialité, fiabilité, sécurité et respect de la vie privée. Grosso modo, ces derniers stipulent que la technologie (l’intelligence artificielle) doit être mise sur pied dans le but de protéger les personnes ; en particulier, les faibles et les défavorisés.

    Le Vatican veut s'assurer que les entreprises n'utilisent pas l'intelligence artificielle comme un moyen de collecter des données sans le consentement des individus, puis de les utiliser à des fins commerciales ou politiques.

    « Sur le plan personnel, l'ère numérique modifie notre perception de l'espace, du temps et du corps, et sur le plan socio-économique, les utilisateurs sont souvent réduits à des "consommateurs", en proie à des intérêts privés concentrés dans les mains de quelques-uns. Les algorithmes extraient désormais des données qui permettent de contrôler les habitudes mentales et relationnelles à des fins commerciales ou politiques, ce, souvent à notre insu. L'asymétrie par laquelle un petit nombre d'élus savent tout de nous alors que nous ne savons rien d'eux ternit la pensée critique et l'exercice conscient de la liberté », a déclaré le Pape François.

    Le Rome Call For an AI Ethics stipule en sus qu’un devoir d’explication doit faire l’objet d’instauration et que les algorithmes basés sur l'intelligence artificielle doivent fournir aux individus des informations sur la manière dont ces derniers ont abouti à leurs décisions afin de garantir qu'il n'y a pas de biais.


    Et vous ?

    Pour ou contre l'utilisation de l'IA à des fins militaires ? Si pour, à quel degré ou à quelles fins ? Si contre, pourquoi ?
    Quels sont les avantages et les inconvénients de l’utilisation de l’intelligence artificielle à des fins militaires ?
    Comment OpenAI peut-elle garantir que ses outils ne seront pas utilisés pour développer ou utiliser des armes ?
    Comment les travailleurs de la technologie peuvent-ils exprimer leurs préoccupations ou leur opposition à des projets militaires impliquant l’intelligence artificielle ?
    Êtes-vous surpris de voir des entreprises comme OpenAI ou Google collaborer avec l’armée sur des projets d’IA militaire ?
    Êtes-vous surpris de la mise à contribution de l’intelligence artificielle sur les champs de bataille ?


    Voir aussi :

    Des représentants de 150 entreprises de la tech plaident contre les robots tueurs autonomes, lors d'une conférence internationale sur l'IA
    USA : le sous-secrétaire à la défense soulève l'importance d'associer l'intelligence artificielle à l'armée, évoquant une future course aux armes
    Des experts en IA boycottent un projet de robots tueurs d'une université en Corée du Sud, en partenariat avec le fabricant d'armes Hanwha Systems
    Non, l'IA de Google ne doit pas être au service de la guerre ! Plus de 3000 employés de Google protestent contre la collaboration avec le Pentagone
    Robots militaires : les États-Unis testent l'efficacité de leurs prototypes dans le Pacifique, l'armée irakienne présente son robot mitrailleur
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  9. #129
    Membre habitué
    Profil pro
    Inscrit en
    Novembre 2003
    Messages
    87
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Novembre 2003
    Messages : 87
    Points : 158
    Points
    158
    Par défaut
    C'est facile "d'être contre" c'est plus difficile d'assumer sa décision face à l'ennemi qui lui a développé ces armes.

  10. #130
    Membre extrêmement actif Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 538
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 61
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 538
    Points : 10 338
    Points
    10 338
    Par défaut
    Citation Envoyé par jnspunk Voir le message
    C'est facile "d'être contre" c'est plus difficile d'assumer sa décision face à l'ennemi qui lui a développé ces armes.
    Entièrement d'accord. C'est bien d'avoir cette conscience, mais il est bon aussi d'avoir conscience que le Russie et la Chine, eux, n'ont pas cette même conscience.
    Au nom du pèze, du fisc et du St Estephe
    Au nom du fric, on baisse son froc...

  11. #131
    Membre éprouvé Avatar de der§en
    Homme Profil pro
    Chambord
    Inscrit en
    Septembre 2005
    Messages
    871
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Loir et Cher (Centre)

    Informations professionnelles :
    Activité : Chambord
    Secteur : Transports

    Informations forums :
    Inscription : Septembre 2005
    Messages : 871
    Points : 1 247
    Points
    1 247
    Par défaut
    Si vis pacem, para bellum !

  12. #132
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 010
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 010
    Points : 6 299
    Points
    6 299
    Par défaut
    Des travailleurs de Google DeepMind font pression sur l'entreprise pour qu'elle abandonne les contrats militaires, dans un contexte de tensions croissantes concernant les relations de l'entreprise avec Israël.
    Et que proposent-ils contre les terroristes du Hamas? Ben rien, mon bon Monsieur!

    L'entreprise n'a pas à devenir le lieu de combat politique...

    Réaction prévisible de Google... Ces "travailleurs" ne seront tout simplement plus des "travailleurs Google" assez vite! Ils deviendront juste des "plaignants accusant en justice Google de licenciement abusif"

  13. #133
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 855
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 855
    Points : 18 797
    Points
    18 797
    Par défaut
    Citation Envoyé par Patrick Ruiz Voir le message
    Pour ou contre l'utilisation de l'IA à des fins militaires ? Si pour, à quel degré ou à quelles fins ? Si contre, pourquoi ?
    Il n'y a plus d'honneur ou d'étique dans la guerre depuis des siècles.

    Arbalète
    En Europe chrétienne, l'arbalète est frappée d'anathème, car jugée trop meurtrière, et son usage est interdit en 1139 par le IIe concile du Latran et confirmée quelques années plus tard, en 1143, par le pape Innocent II, qui menace les arbalétriers, les fabricants de cette arme et ceux qui en faisaient le commerce d'excommunication et d'anathème. Cette interdiction, par ailleurs valable uniquement pour les combats entre chrétiens, reste médiocrement observée par les princes d'Occident, malgré les efforts du pape Innocent III pour réaffirmer, en 1205, les interdits du IIe concile du Latran, à tel point que l'arbalète est privilégiée à l'arc à cette époque. Aux XIIe et XIIIe siècles, malgré l'interdiction, Richard Cœur de Lion et Philippe Auguste développèrent des unités spécifiques d'arbalétriers, bien entraînées et équipées. L’efficacité de ces armes faisait de ceux qui les maniaient des soldats d'élite, très prisés, et très bien payés, ce qui leur permettait l'achat d'équipements de qualité. Les indications de l'époque font état des arbalétriers comme les troupes les mieux payées des armées occidentales, et parfois même mieux équipées que certaines classes de chevaliers. Cette arme fut aussi utilisée par les peuples orientaux durant les croisades, dans une forme similaire au modèle occidental, mais avec quelques subtilités de forme. Il existait aussi un modèle, peut-être expérimental, d'arbalète portative lance-grenades.
    Lors du XXème siècle les USA ont utilisé :
    - Little Boy (Bombe à fission à l'uranium)
    - Little Man (Bombe à fission au plutonium)
    - Agent Orange
    - Napalm
    - Munition à l'uranium appauvri
    - Lance flemmes
    - Bombe au phosphore blanc
    - Bombe incendiaire
    - Armes biologiques et chimiques
    - Armes laser aveuglantes

    Enormément de civils sont morts à cause de ces armes, alors que les États-Unis ont signé les quatre Conventions de Genève.
    Rien n'empêchera les USA et Israël d'utiliser l'IA pour faire la guerre.
    Tous les moyens sont bons pour gagner la guerre et comme le gagnant écrit l'histoire il pourra mettre tous les crimes de guerres qu'il a commis sur le dos du perdant.
    Aucune nation ne va laisser son ennemi prendre de l'avance dans le domaine de la technologie militaire.

    ====
    Google devrait virer tous ceux qui ne sont pas d'accord et réembaucher d'autres employés qui sont ok avec l'utilisation de l'IA dans l'armée.
    Il y a moyen de faire ça discrètement :
    - Google met fin au projet DeepMind vire 100% des employés
    - Il créer un nouveau projet avec des anciens de DeepMind et des nouveaux

    Comme ça t'évites ce que les étasuniens appellent un "public relations disaster".
    Keith Flint 1969 - 2019

  14. #134
    Membre expérimenté Avatar de stigma
    Homme Profil pro
    Créateur jeux vidéo
    Inscrit en
    Octobre 2003
    Messages
    1 118
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 74
    Localisation : France, Pas de Calais (Nord Pas de Calais)

    Informations professionnelles :
    Activité : Créateur jeux vidéo
    Secteur : Arts - Culture

    Informations forums :
    Inscription : Octobre 2003
    Messages : 1 118
    Points : 1 614
    Points
    1 614
    Par défaut
    Le Hamas a utilisé des fours à micro onde pour tuer des bébés.

Discussions similaires

  1. Réponses: 7
    Dernier message: 06/04/2018, 13h48
  2. Développer une DLL pour postgresql.
    Par vaness7 dans le forum Extensions
    Réponses: 5
    Dernier message: 22/08/2011, 18h17
  3. Développer une extension pour Web browser
    Par Arrakis dans le forum Général Conception Web
    Réponses: 6
    Dernier message: 04/12/2008, 16h37
  4. Comment développer une application pour CE?
    Par highdata dans le forum VB.NET
    Réponses: 3
    Dernier message: 05/06/2007, 11h47
  5. développer une toolbar pour Internet Explorer
    Par Jérémy Lefevre dans le forum C++
    Réponses: 16
    Dernier message: 15/11/2006, 18h12

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo