Une IA belge évidement !
Une IA belge évidement !
Je n'ai pas compris.
Mais les salariés de Google ont déclaré ça :
En fait c'est pour la surveillance en général, ceux qui travaillent chez Google ne veulent pas construire une technologie pour aider le gouvernement américain à surveiller n'importe quel pays.
Les gouvernements du monde entier ne devrait pas faire de la surveillance de masse.
Ils disent que c'est utile car grâce à ça, quand un terroriste passe à l'acte et ben ça fait des mois qu'on savait que ça risquait d'arriver et c'est un gros avantage.
La dernière vidéo de Veritasium sur la guerre de l'IA est parfaite à ce propos
Mais oui, il faut mieux encadrer l'utilisation de l'IA car pour le moment c'est un peu open-bar vu que chacun à une vision de l'éthique différente (ou surtout des intérêts différents)
C'est discutable.
L'armée a joué un rôle indéniable au début, mais à mon avis (nettement) inférieur à celui de l'industrie bancaire / financière dès les années 60. Et quand les intérêts militaires entrent en conflit avec ceux de la finance, c'est cette dernière qui gagne (cas de la cryptographie dans les années 90 par exemple). Ca montre clairement qui est le boss^^
Faut pas oublier que sans informatique y'a même pas de compte bancaire pour le grand public. Dans les années 50 et même 60, les salariés touchaient leur paye... en espèce directement de la main d'n responsable ! C'est l'automatisation de la gestion des comptes qui a permis la "bancarisation" de la population. Et il suffit de voir quelles sont les sociétés qui investissent dans le développement des langages de programmation pour voir comment la banque est omniprésente dans notre secteur. Et pour cause : le moindre paiement en ligne passe par leurs infrastructures !
L'EFF appelle à ne pas utiliser l'intelligence artificielle pour la guerre
s’adressant à Google et aux entreprises de l'IA
L'initiative du département de la Défense des États-Unis dénommée « Project Maven », qui vise à utiliser l'Intelligence artificielle (IA) à des fins militaires, a amené des milliers d'employés de Google à dénoncer l'implication de la firme dans ce projet.
Le mois dernier, Google avait déclaré que l'entreprise n'avait fourni que des « API TensorFlow » au département de la Défense par l'intermédiaire d'un compte Google régulier pour former les modèles TensorFlow. Google a ajouté qu'elle fait de la reconnaissance d'objets « pour des utilisations non offensives seulement ». Mais une lettre signée par des employés de l'entreprise vient souligner que Google a mis à la disposition du département de la Défense son expertise de pointe en apprentissage machine et ses ingénieurs travaillant dans ce domaine.
Partant de ces faits et de tous les documents publics, l'Electronic Frontier Foundation (EFF), organisation à but non lucratif qui défend les libertés civiles dans le monde numérique, demande à son tour à Google de ne pas aider les États-Unis à construire des systèmes d'IA qui pourrait causer des dégâts. Pour l'EFF, il est risqué d'utiliser des systèmes d'IA dans des situations militaires de peur d'engendrer des morts, l'escalade de conflits ou une instabilité mondiale. La gestion des systèmes d'IA est déjà assez compliquée et peut s'avérer très compliquée et plus délicate dans les situations militaires. L'EFF rappelle aussi que jusqu'à ce jour, il n'y a pas de règles et normes définies pour évaluer les risques et responsabilités pour les systèmes d'IA en général. L'organisme pense donc les entreprises de l'intelligence artificielle devraient se poser un certain nombre de questions avant d'accepter des contrats militaires.
- Est-il possible de créer des institutions ou des accords internationaux forts et contraignants qui définissent les utilisations militaires acceptables et les limites de l'utilisation de l'IA ?
- Existe-t-il un processus solide pour étudier et atténuer les problèmes de sécurité et de stabilité géopolitique qui pourraient résulter du déploiement de l'IA militaire ?
- Les organismes contractants sont-ils prêts à s'engager à ne pas utiliser l'IA pour des armes offensives autonomes ?
- Peut-il y avoir une surveillance transparente et responsable de la part d'un comité d'éthique constitué de façon indépendante ou d'une entité similaire ayant à la fois le pouvoir d'opposer son veto aux aspects du programme et le pouvoir d'apporter la transparence publique aux questions lorsque cela est nécessaire ou approprié ?
Enfin, EFF souligne que l'utilisation de l'IA dans les systèmes d'armes est un sujet d'une importance cruciale qui mérite un débat public international et probablement des accords internationaux pour assurer la sécurité mondiale. Les entreprises comme Google, ainsi que leurs homologues du monde entier, doivent tenir compte des conséquences et exiger une véritable responsabilisation et des normes de comportement de la part des organismes militaires qui recherchent leur expertise - et d'eux-mêmes.
Sources : L'EFF
Et vous ?
Qu'en pensez-vous ?
Voir aussi
Non, l'IA de Google ne doit pas être au service de la guerre !
Ce n'est pas du tout ce qui est écrit...
Une partie des employés de Google, ne veut pas aider la surveillance militaire, pouvant potentiellement dériver sur des applications mortelles par la suite, typiquement une identification automatisée par drone pouvant donner lieu à une attaque du même drone ou d'une autre source.
Cela serait pour une boite privée faisant de la surveillance de masse à but commercial, ou le gouvernement surveillant ses propres citoyens (NSA), ces employés ne serait pas forcément contre, en tous cas il n'y a rien dans cette phrase qui peut te permettre de l'affirmer.
Il existe probablement certains employés chez Google qui sont contre la surveillance de masse (ce qui serait à moitié faux-cul de leur part, puisque une bonne partie du modèle économique de leur boite est basée la-dessus, c'est comme se prétendre vegan, bosser dans un abattoir et apprécier son boulot ^^), mais ce n'est strictement pas ce dont il est question ici, ni même ce qui est écrit.
J'ai pourtant vue beaucoup de western qui te contrediront.Faut pas oublier que sans informatique y'a même pas de compte bancaire pour le grand public.
La source du moyen d'échange et la façon de le faire étant lui même plutôt obscure...
L'état (roi/empereur/etc...) est donc le premier acheteur qui donne des " moyens financiers " échangeable d'abords près de lui et ensuite près des autres...
C'est aussi le principe de rémunération.
Toute les entreprises dites privés ont leurs équivalents gouvernementales, il y va de même avec l'artisanat et les associations.
Les crypto monnaie donnent justement le droit de ne plus dépendre initialement des états... Via une filiale d'indépendance ou une monnaie " régional ou communal alternative " échangeable dans certain commerce... (encore faut-il que la monnaie ai été reconnu comme l'étant par l'état.)
Le troque, " je te donne deux tomates et tu me donne 2 salades " est lui bien un principe de camaraderie ou amitié... L'argent de poche donné au enfant, lui aussi est encore autre chose...
L'état ne fabrique rien de national ou usage strictement national et en même temps tout est militaire... (d'un autre pays ? allié ? somnifère/antalgique/anesthésie ?)L'armée a joué un rôle indéniable au début, mais à mon avis (nettement) inférieur à celui de l'industrie bancaire / financière dès les années 60.
Dernière modification par MikeRowSoft ; 09/04/2018 à 14h20.
Moi personnellement je vois pas le problème à l'utilisation de l'IA, on utilise déjà des avions pour bombarder des villes entières, je ne vois pas ce qu'une IA pourrait faire de plus ... Franchement ça pourra pas être pire. Et ne venez pas me parler de Terminator, cela n'a aucun rapport !!!
On déshumanise le fait de s'en prendre à une personne/tuer, c'est encore plus violent que la guerre en face à face.
(Les deux sont dégueulasse je l'accorde, y'en a juste un qui est immonde)
L'homme à toujours été très inventif pour ce qui touche au domaine des armes et de la guerre, mais l'IA ne doit à mon avis pas servir en ce sens, sinon dans quelques années on se retrouve dans le même scénario que certains films hollywoodiens.
En plus de ça, développer des IA pour la guerre, voyant les failles aberrantes que l'ont trouve dans nos SI, c'est pas très rassurant....
C'est assez facile de trouver un rapport entre des intelligence artificielle armées et Terminator...
Sur un champ de bataille les machines ont le dessus par rapport aux humains.
Elles peuvent être plus rapide, plus précise, plus solide, plus meurtrière.
Mais d'un côté c'est pas beaucoup plus dégueulasse que les drones que des soldats dirigent depuis leur ordinateur...
On peut comprendre pourquoi certains employé de Google n'ont pas trop envie que leur travail soit utilisé pour faire un robot tueur.
Comment dire , L'IA de dushmolle ou truchmuche est déjà utilisé par les militaires depuis ... 20 ans .
Depuis la fin des années 1990 l'armée US et plusieurs alliés utilisent des missile à têtes chercheuse ... Un programme de détection à 64 point doit déterminer la cible exact . C'est de L'IA car l'armée doit réutiliser a chaque fois les données des précédents tirs balistiques.
Ne parlons pas des satellites militaires pour faire voler des drones ou le dressages de certains animaux militaires (chien , dauphin , aigle ... ) . Que dire aussi des simulateurs de vols ?
Cette peur de l'IA n'est que l'actualisation moderne d'une peur qui nous habite depuis des millénaires : celle de notre disparition annoncée par moultes prophéties et récits apocalyptiques. Chaque génération hérite, perpétue et transmet cette idée d'une destruction totale de l'humanité qui l'aura d'ailleurs bien cherché. Autrement dit, une perpétuation de l'idée que nous sommes méprisables et que la nature ou Dieu ou l'Univers a bien raison de nous exterminer.
Cette éducation à nous auto-détester est tellement ancrée en nous qu'il est bien difficile de s'en détacher ouvertement sans déclencher une vive hostilité. Car derrière les beaux discours visant à nous ouvrir les yeux etc... il y a aussi de profonds enjeux de pouvoirs : les prophètes de malheur savent faire bon usage de notre addiction au drame.
Alors je crois que ta posture est la bonne : hausser des épaules et passer son chemin. Car in fine, une fois qu'on est passé à autre chose, on se rend compte qu'on avait juste peur de nous mêmes.
Des employés de Google présentent leurs démissions
Pour protester contre la participation de l’entreprise à un projet en IA du Pentagone
Des employés de Google ont décidé de quitter la barque du géant de la technologie. La douzaine de désormais ex-Googler proteste contre la participation de ce dernier à un projet en intelligence artificielle pour le compte du Pentagone.
Cette décision n’est pas sans précédent. Depuis le mois de mars 2018, l’équipe dirigeante de Google gère des correspondances de protestations tant de son personnel que d’organisations de défense des libertés sur Internet. 3100 employés (minimum) de la firme ont manifesté leur soutien pour son retrait de ce projet dénommé Maven. Y faisant suite, l’Electronic Frontier Foundation (EFF) a, de façon générale, appelé les entreprises de la technologie à s’extirper des collaborations dans le même genre.
« Nous demandons que le projet Maven soit annulé et que Google prépare, publie et instaure des règles qui stipulent que jamais l’entreprise et ses sous-traitants ne participeront à la construction de matériel de guerre », ont lancé les employés à Sundar Pichai.
Le projet Maven vise à améliorer les opérations des drones en utilisant des technologies de reconnaissance d'images. Selon le Pentagone, l'objectif initial est de fournir à l'armée une vision par ordinateur avancée, permettant la détection et l'identification automatique d'objets (classés dans pas moins de 38 catégories) capturés par la caméra d'un drone. Le projet a donc vocation à pister certaines cibles plus aisément. Google dont le rôle n’est pas très clair dans l’affaire, mais dont on sait au moins qu’il fournit l’API TensorFlow utilisée en IA, ajoute pour se défendre qu’il intervient sur des aspects non offensifs.
Seulement, référence faite à une publication (parue en juillet 2017) du département de la Défense (DoD) des États-Unis, il s’agit de « gagner des guerres en s’appuyant sur les algorithmes et l’intelligence artificielle. » Plus loin dans le papier du DoD, un colonel de l’armée américaine rappelle que « nous [les USA] sommes dans la course aux armes autonomes. » Difficile dans de telles conditions de ne pas entrevoir une utilisation pervertie de l’IA de Google, notamment, pour exceller dans les frappes ciblées. À ce propos, le géant de la Tech. s’est une fois de plus dédouané en arguant que la construction de cette technologie pour aider le gouvernement américain dans la surveillance militaire – avec des résultats potentiellement mortels – n'est pas acceptable, mais il ne peut externaliser la responsabilité morale de ses technologies à des tiers.
On est là comme dans un film où un tiers a affaire à un individu potentiellement dangereux, mais est néanmoins d’accord pour l’armer. En cela, les employés de Google estiment que la firme n’est plus cohérente avec son slogan Don’t be evil (littéralement traduit par « ne soyez pas malveillants. ») et ont décidé d’aller au-delà des pétitions et de claquer la porte.
Sources : Forbes, DoD
Et vous ?
Que pensez-vous de la décision de ces employés ? auriez-vous fait pareil ou pas ? Indiquez et expliquez vos motifs.
Quel commentaire faites-vous du positionnement de Google ?
Voir aussi
Elon Musk appelle les Nations Unies à bannir les robots tueurs dans une lettre ouverte, signée par 116 spécialistes de l'IA et la robotique
L'intelligence artificielle pourrait mener à la troisième guerre mondiale : un nouvel épisode d'Elon Musk après la déclaration de Vladimir Poutine
Ils sont très courageux de choisir de quitter leur travail, ils font passer leur convictions avant leur confort.
C'est impossible de savoir si j'aurais fais pareil, bosser chez Google ça doit bien payer quand même.
Ils sont juste trop naïf de croire qu'ils peuvent influencer Google à changer...
Ça doit être un projet lucratif, le but de Google c'est de faire de l'argent, il n'y a aucune éthique derrière.
Les multinationales n'ont pas d'âme, elles veulent juste de l'argent et elles feraient n'importe quoi pour en avoir plus.
Google ne devrait pas avoir de mal à remplacer les employés qui sont parti.
J'avais complètement oublié cette histoire, j'ai cru, en lisant le titre, qu'on allait parler de contribution à Maven de Apache qui fait parti des outils d'android studio, je me demandais en quoi c'était si grave x)
Bref Google continue d'être maître du monde, et s’immisce dans tout les secteurs jusqu'être indispensable pour s'affirmer, le militaire devait forcément arriver
Google qui fait de l'IA pour l'armée américaine ?
What could go wrong ?
Je serais resté en poste. Cela est un projet profitable à tout les projets en I.A., donc pas seulement à l'armée. " 38 catégories d'objets ", c'est peu quand on prend en considération tout les objets qui peuvent exister. En plus le point de vue joue une pondération plutôt forte.
Il existe plusieurs aspect de la stratégie, pas forcément informatique. " La meilleur défense c'est l'attaque " (pas la crise cardiaque ) , trouver les points faibles sont les meilleurs moyens pour faire battre en retraite.
[spoiler]La reconnaissance facial de jumeau réduit le nombre de visage distinct. Montrer un joué hyper réaliste en gros plan peu probablement tromper...[/spoiler]
J'espère que ce sont des pointures qui sont parties. Ca ne se remplace pas si facilement.
Me concernant je pense que je serais parti. J'avais déjà volontairement raté un entretien clientèle chez Servier (j'avais bien mis en évidence mon amour des animaux), façon de refuser sans le dire une mission de SS2I.
Google sait pertinemment dans quoi il s'engage. Le contrat doit être très juteux.
Partager