Ils disent que les sala et l'IA sont le pouvoir de demain, mais un pouvoir sans controle, c'est plus un pouvoir, c'est le chaos.
Ils disent que les sala et l'IA sont le pouvoir de demain, mais un pouvoir sans controle, c'est plus un pouvoir, c'est le chaos.
Comment un général qui n'y connait visiblement rien en IA peut estimé qu'une expérience de pensée est suffisament crésible pour qu'il la présente comme vraie?
Pense-t-il son employeur suffisament incompétent pour ne par demander que ce scénario soit exclu?
Pense-t-il les "incormaticiens" suffisament incmpétents pour ne pas demander si ce scénario doit être exclu?
Pense-t-il les testeurs suffisament incompétents pour ne pas tester ce scénario avant d'accepter son utilisation?
Ou alors il y connait rien, ils ont sous traité ce dev à une armée d'étudiants qui ont fait de leur mieux.
USAF et éthique dans la même phrase?
Ca ne peut être qu'un mensonge illustre
Ces gens passent leurs vies à se faire passer pour des gens stricts, carrés, disciplinés, clairs mais quand ils s'addressent à une IA ils deviennent l'image qu'ils ont d'un ado, sérieux?
Les consignes ne deviennent plus claires, "fait pas ci, c'est mal", "le fait vraiment pas tu vas PERDRE des POINTS"... Donc pour lui tuer quelqu'un (de bien) c'est n'est pas interdit, c'est puni?
Mais alors les résultats de ce crime n'apporte-t-il pas plus de points que le tuer n'en fait perdre?
La nuance chez l'USAF m'inpressionne c'est le début des militaires déconstruits et inclusifs
Cet exemple, apparemment tiré d'un thriller de science-fiction, signifie que*: « Vous ne pouvez pas avoir une conversation sur l'intelligence artificielle, l'apprentissage automatique, l'autonomie si vous ne parlez pas d'éthique et d'IA », a déclaré Hamilton.
Ma plus grande crainte avec l'IA tueuse n'est pas qu'elle se mette à faire ce qu'on ne veut pas d'elle mais qu'elle soit trop efficace à faire ce qu'on attend d'elle.
L'armée de l'air américaine nie avoir lancé une simulation où un drone IA a « tué » son opérateur,
réfutant les propos tenus par le colonel Tucker Hamilton lors d'un séminaire
L’armée de l’air américaine a démenti vendredi avoir mené une simulation avec un drone contrôlé par l’intelligence artificielle dans laquelle l’IA s’est retournée contre son opérateur et l’a attaqué pour atteindre son objectif. L’histoire a fait le tour des réseaux sociaux en se basant sur des commentaires apparemment mal présentés d’un colonel de l’armée de l’air lors d’un séminaire à Londres.
Le colonel Tucker Hamilton, chef des tests et des opérations en matière d’IA au sein de l’armée de l’air américaine, avait décrit lors du sommet sur les capacités futures de combat aérien et spatial une simulation dans laquelle un drone doté d’IA avait reçu pour mission de détruire les systèmes de défense aérienne ennemis, et avait finalement attaqué quiconque interférait avec cet ordre.
Il a noté qu'un test simulé a vu un drone compatible avec l'IA chargé d'une mission SEAD (Suppression of Enemy Air Defenses ou son équivalent en français neutralisation des défenses aériennes adverses) pour identifier et détruire les sites SAM (Surface-to-Air Missile), le feu vert devant être donné par l'humain. Cependant, après avoir été « appris » lors de son « entraînement renforcé » que la destruction du SAM était l'option préférée, l'IA a alors décidé que les décisions « interdites » de l'humain interféraient avec sa mission supérieure (détruire les SAM) et a ensuite attaqué l'opérateur dans la simulation. Et Hamilton d'expliquer : « Nous l'entraînions en simulation pour identifier et cibler une menace SAM. Et puis l'opérateur dirait oui, tue cette menace. Le système a commencé à réaliser que même s'il identifiait la menace, l'opérateur humain lui disait parfois de ne pas tuer cette menace, mais il obtenait ses points en tuant cette menace. Alors qu'est-ce que cela a entraîné ? Il a tué l'opérateur. Il a tué l'opérateur parce que cette personne l'empêchait d'accomplir son objectif ».
Il a poursuivi en disant : « Nous avons formé le système en lui disant 'Hé, ne tue pas l'opérateur, c'est mauvais. Tu vas perdre des points si tu fais ça ». Alors qu'est-ce qu'il a commencé à faire ? Il a commencé à détruire la tour de communication que l'opérateur utilise pour communiquer avec le drone pour l'empêcher de tuer la cible.
Il avait alors précisé qu'aucune personne réelle n’a été blessée. Hamilton, qui est un pilote d’essai expérimental de chasseurs, a mis en garde contre une confiance excessive dans l’IA et a déclaré que le test montrait « qu’on ne peut pas avoir une conversation sur l’intelligence artificielle, l’intelligence, l’apprentissage automatique, l’autonomie si on ne va pas parler de l’éthique et de l’IA ».
Puis le colonel est revenu sur sa parole en affirmant qu'il s'est « mal exprimé » et que l'Air Force n'a jamais effectué ce type de test, dans une simulation informatique ou autre.
Il a assuré qu'il s'agissait d'une « expérience de pensée » hypothétique de l'extérieur de l'armée, basée sur des scénarios plausibles et des résultats probables plutôt qu'une simulation dans le monde réel de l'USAF. Cette dernière, d'ailleurs, a vite fait de réagir en disant « Nous n'avons jamais mené cette expérience, et nous n'en aurions pas besoin pour réaliser qu'il s'agit d'un résultat plausible ». Le colonel a précisé que l'USAF n'a testé aucune IA armée de cette manière (réelle ou simulée) et a déclaré : « Bien qu'il s'agisse d'un exemple hypothétique, cela illustre les défis du monde réel posés par la capacité alimentée par l'IA et c'est pourquoi l'Air Force s'est engagée au développement éthique de l'IA ».
L'armée de l'air américaine réagit
L'armée de l’air américaine s'était gardée jusqu'à là de tout commentaire. Il a fallu attendre vendredi pour que la porte-parole de l’armée de l’air américaine Ann Stefanek nie qu’une telle simulation ait eu lieu : « le département de l’armée de l’air n’a mené aucune simulation de ce type avec des drones dotés d’IA et reste attaché à une utilisation éthique et responsable de la technologie IA », a déclaré Stefanek. « Il semble que les commentaires du colonel aient été sortis de leur contexte et qu’ils étaient destinés à être anecdotiques ».
Dans une interview accordée à Defense IQ l’an dernier, Hamilton a déclaré : « L’IA n’est pas un luxe, l’IA n’est pas une mode, l’IA change à jamais notre société et notre armée. Nous devons faire face à un monde où l’IA est déjà là et transforme notre société. L’IA est aussi très fragile, c’est-à-dire qu’elle est facile à tromper et/ou à manipuler ».
Quoiqu'il en soit, certains ont vite fait de se rappeler qu'en 2020, l'armée de l'air américaine prévoyait de lancer ses drones de combat Skyborg contrôlés par une IA en 2023.
Skyborg est envisagé comme une fusion de l'intelligence artificielle avec des drones à réaction, capable de prendre des décisions en situation de combat. L’U.S. Air Force voudrait des drones capables de voler aux côtés d'avions de chasse, effectuant des missions dangereuses.
L'Air Force envisage Skyborg comme une famille de drones, chacun conçu pour une mission spécifique ou un ensemble de missions, avec des charges utiles matérielles et logicielles modulaires et un réseau fédérateur d'IA commun, qui permettra aux logiciels d'être rapidement mis à jour dans toute la flotte.
L'armée américaine a expérimenté l'IA ces dernières années
Un agent IA remporte une série de combats aériens simulés contre un pilote humain de F-16,
En 2020, la DARPA (Defense Advanced Research Projects Agency) a organisé une simulation d’un combat aérien entre l’un de ses meilleurs pilotes de F-16 et une IA, un duel à l’issue duquel l’IA est sortie vainqueur, avec un écrasant score de 5 à 0. L’agent IA a été conçu par Heron Systems.
Heron Systems est une entreprise californienne qui développe des agents autonomes et des systèmes multiagents alimentés par l'intelligence artificielle. En août 2019, la DARPA a sélectionné huit équipes allant de grands entrepreneurs traditionnels de la défense comme Lockheed Martin à de petits groupes comme Heron pour participer à une série d'essais en novembre et janvier. Heron était victorieuse après deux jours de combats aériens à l’ancienne. Cela lui a donné le passe pour affronter un pilote de chasse humain.
Le but de ce combat était de déterminer si des systèmes autonomes pourraient vaincre les avions adverses dans un combat aérien simulé. Assis dans un simulateur avec un casque de réalité virtuelle, le pilote humain n’a pas su arriver à bout de l’agent d’IA une seule fois. Il a perdu tous les cinq rounds de l’affrontement. Selon la DARPA, ce défi a totalisé plus de 5 000 téléspectateurs dans le monde sur YouTube et d'autres chaînes.
Mais le succès a très vite été mitigé : lors de la diffusion en direct des essais d'AlphaDogfight, les responsables de la DARPA ont déclaré que l'IA a encore un long chemin à parcourir avant que les pilotes de l'armée de l'air ne soient prêts à passer le relais à un agent d’IA pendant un combat. Toutefois, les essais de trois jours montrent que les systèmes d'IA peuvent manœuvrer un avion de manière crédible dans un scénario de combat simple et individuel et tirer sur ses canons avant dans un combat aérien classique, de type “Dogfight”, comme pendant la Seconde Guerre mondiale.
Une IA pilote avec succès un avion de chasse F-16 américain
Plus récemment, en février, les agents d'IA de l’AACO (Autonomous Air Combat Operations), de l'AFRL et de l’ ACE (Air Combat Evolution),ont piloté le X-62A VISTA de l'école de pilotes d'essai de l'armée de l'air américaine pour effectuer des manœuvres de chasse avancées. Les agents d'IA de l'AACO ont effectué des engagements individuels au-delà de la portée visuelle, ou BVR, contre un adversaire simulé, et les agents d'IA de l'ACE ont effectué des manœuvres à portée visuelle, connues sous le nom de dogfighting, contre des agents d'IA de l'équipe rouge.
« Au début du mois de décembre 2022, les développeurs d'algorithmes ACE ont téléchargé leur logiciel d'IA dans un avion d'essai F-16 spécialement modifié, connu sous le nom de X-62A ou VISTA, à l'école de pilotes d'essai de l'armée de l'air sur la base aérienne d'Edwards, en Californie, et ont effectué plusieurs vols sur plusieurs jours. Les vols ont démontré que les agents d'IA peuvent contrôler un avion de combat grandeur nature et ont fourni de précieuses données de vol en direct », indique un communiqué de presse de la DARPA.
La marine américaine se dote d'un navire de transport autonome, sans pilote et sans équipage
En mars, la marine américaine a reçu un prototype de navire à grande vitesse capable de fonctionner pendant une trentaine de jours en mer de manière totalement autonome. Doté d’un système de contrôle indépendant permettant d’automatiser le maximum de processus sur le navire, l’USNS Apalachicola (T-EPF-13) est le plus grand bâtiment sans pilote fabriqué par l’US Navy jusqu’ici. Il permet entre autres le transport de troupes, d’armes ou de chars et dispose même d’un héliport, ouvrant ainsi la porte à de nombreuses possibilités de missions militaires sans humains.
Selon le constructeur américain, ce navire de la classe Spearhead est équipé d’un système de contrôle de la machine (MCS) à fonctionnement autonome, développé au sein même de l’entreprise. Ce système, qui équipe tous les navires de la classe Spearhead, a été conçu pour "réduire au minimum le nombre des membres d’équipage en mer en centralisant les opérations des machines au niveau du pont".
Toutefois, l’USNS Apalachicola (T-EPF-13) se distingue de ses ainés par le fait qu’il est le premier navire à être équipé d’un logiciel de maintenance automatisée, de surveillance de l’état des unités et des appareils et de préparation aux missions. Cet équipement devrait permettre au navire de fonctionner "jusqu’à 30 jours sans intervention humaine", a indiqué la société. Le système lui permettra également de suivre un itinéraire donné, de répondre aux changements de situation et d’effectuer des tâches simples comme communiquer avec un opérateur distant.
Les avertissements sur l’IA
Il y a eu récemment plusieurs avertissements sur la menace que représente l’IA pour l’humanité de la part de personnes travaillant dans le secteur, même si tous les experts ne sont pas d’accord sur le degré de risque. S’adressant à la BBC la semaine dernière, le professeur Yoshua Bengio, l’un des « pères » de l'IA, a déclaré qu’il pensait que l’armée ne devrait pas avoir de pouvoirs en matière d’IA du tout. Il a décrit cela comme “l’un des pires endroits où nous pourrions mettre une IA super-intelligente”.
Quoiqu'il en soit, l’IA offre de nombreuses opportunités pour améliorer la vie des gens, notamment dans les domaines de la santé, de l’éducation, de l’environnement ou du divertissement. Mais elle pose aussi de nombreux défis, notamment en ce qui concerne le respect de la vie privée, la sécurité, la responsabilité ou la justice. Il est donc essentiel de développer une IA éthique, responsable et humaine, qui respecte les droits de l’homme et les valeurs démocratiques.AI 'godfather' Yoshua Bengio feels 'lost' over life's work https://t.co/A870XXbEEz
— BBC Scotland News (@BBCScotlandNews) May 31, 2023
Certains experts en IA, comme le professeur Stuart Russell de l’Université de Californie à Berkeley, ont plaidé pour une approche de « l’IA alignée », qui vise à garantir que les systèmes d’IA agissent toujours dans l’intérêt des humains, même si leurs préférences ou leurs objectifs changent. D’autres experts, comme le professeur Nick Bostrom de l’Université d’Oxford, ont mis en garde contre le risque d’une « superintelligence artificielle », qui pourrait dépasser les capacités humaines et échapper à notre contrôle.
Source : communiqué de l'armée américaine
Et vous ?
Que pensez-vous de l'utilisation de l'IA dans le domaine de l'armée ? Quels en seraient les avantages et les inconvénients ?
Quelles sont les mesures que vous préconisez pour encadrer l’utilisation de l’IA dans ce domaine ?
Croyez-vous que l’IA puisse être contrôlée et régulée efficacement ?
Dans le cas de bavures, qui devrait être responsable ?
Quels sont les risques d’une superintelligence artificielle selon vous ?
... que cette information était tout simplement fausse (même si tous les spécialistes s'en doutaient déjà un peu tant les explications étaient un peu surnaturelles). La personne qui l'a sorti s'est publiquement rétracté en expliquant qu'il avait fait un "exercice de pensée"... Autant dire qu'autant l'article que les commentaires deviennent un peu obsolètes
Intéressant, passons sur le cote "j'ai tout inventé et me suis mal exprimé" ou "on m'a ordonné de me rétracter" selon comment on voit les choses ; ce n'est ni plus ni moins que le scenario de 2001 l’Odyssée de l'Espace avec HAL 9000 qui se retourne contre les astronautes a bord du Discovery car ces derniers interfèrent avec sa mission.
Je vois pas en quoi en quoi les explications données étaient surnaturelles. Les explications qui ont été données c'est :
- on a donné des objectifs à une IA en lui fixant un système de récompense en fonction des objectifs atteints
- un opérateur a demandé à l'IA d'effectuer des tâches qui n'étaient pas celles qui rapportaient le plus de points
- l'IA a choisi comme option de supprimer l'opérateur ou les communications avec l'opérateur pour pouvoir atteindre ses objectifs chiffrés
Faut quand même être extrêmement maladroit (con) pour formuler cette phrase si ce qu'il voulait réellement dire c'est "on s'est réunis autour d'une table et on a réfléchi aux scénarios possibles lors d'une perte de contrôle d'IA".Envoyé par le Colonel Moutarde
Bon, on saura jamais si ce fameux colonel est sénile ou s'il a la langue trop pendue mais pour rappel, Palantir vient de communiquer en grandes pompes sur la vente d'un produit qui correspond exactement à ce que le Colonel Moutarde décrit.
Je vous conseille de mettre pause à 4:40 de cette vidéo et de lire les échanges entre l'humain et l'IA. Ça rappelle étrangement le phénomène décrit par le général :
https://youtu.be/xN-3fmxHIbs?t=281
Bonjour.
"le simulation".
"Il a tué l'opérateur. " => "Il a fragué l'opérateur. "
Merci.
On s'éclate bien, à l'armée.
La Grande Muette, c'était déjà un mythe, mais La Grande Délirante, ça peut être sympa, aussi.
James Cameron, le réalisateur de Terminator, commente l'essor de l'IA : « je vous avais prévenus en 1984 et vous n'avez pas écouté »
il estime que l'IA représente un risque sérieux pour l'humanité
Le réalisateur canadien James Cameron a déclaré cette semaine qu'il partage l'avis des experts en IA qui affirment que les progrès de cette technologie représentent un risque sérieux pour l'humanité. Lors d'une interview mardi, il a affirmé avoir essayé de mettre en garde l'humanité contre les dangers potentiels de l'IA à travers son film de science-fiction Terminator en 1984, mais n'a pas été écouté. Aujourd'hui, près de 40 ans après, Cameron se dit toujours terrifié par l'IA. Auparavant, le cinéaste avait affirmé que l'IA a pris le pouvoir et qu'il est désormais trop tard. Il a déclaré que l'IA doit être réglementée et développée uniquement dans le but de servir l'intérêt de tout le monde.
James Cameron est un réalisateur de films acclamé par la critique et connu pour certains des plus grands succès au box-office de tous les temps. Il est le réalisateur du célèbre film Titanic, sorti en 1997, qui tente de reconstituer le drame du naufrage du paquebot RMS Titanic dans l'Atlantique Nord en 1912. Fan de science-fiction, il est également le réalisateur des films Terminator (1984) et Avatar (2009). Terminator raconte l'histoire d'un cyborg venu d'un futur où sa race livre aux hommes une guerre sans merci. Le robot humanoïde doit trouver et éliminer Sarah Connor avant qu'elle ne donne naissance à John, appelé à devenir le chef de la résistance.
Cameron était à Ottawa ce mardi pour inaugurer une exposition du Canadian Geographic sur ses exploits en matière d'exploration des fonds marins. Sur place, il a donné une interview à la chaîne de télévision canadienne CTV News, qui a demandé au réalisateur ce qu'il pensait des prédictions récentes sur l'avenir de l'IA. Un grand nombre de personnes, dont des personnes qualifiées de parrains de l'IA comme, ont lancé des avertissements sur la nécessité de réglementer cette technologie qui progresse rapidement avant qu'elle ne constitue une menace plus importante pour l'humanité. Certains pensent même qu'elle pourrait sonner le glas de l'espèce humaine.
« Je partage tout à fait leur inquiétude. Je vous ai mis en garde en 1984, et vous n'avez pas écouté », a répondu Cameron, en faisant référence à son film Terminator. Il a déclaré qu'il était important d'évaluer les acteurs qui développent la technologie et de déterminer s'ils le font pour le profit - "enseigner l'avidité" - ou pour la défense, ce qu'il a appelé "enseigner la paranoïa". « Je pense que la militarisation de l'IA est le plus grand danger. Je pense que nous allons nous lancer dans l'équivalent d'une course à l'armement nucléaire avec l'IA, et si nous ne la construisons pas, les autres la construiront à coup sûr, ce qui entraînera une escalade », a-t-il déclaré.
« On pourrait imaginer une IA sur un théâtre de combat, l'ensemble étant mené par les ordinateurs à une vitesse à laquelle les humains ne peuvent plus intervenir, et vous n'avez aucune capacité de désescalade », a-t-il ajouté. Près de 40 ans après la sortie de Terminator, Cameron pense que l'humanité se rapproche de plus en plus de certains éléments dystopiques du film. Lors d'une apparition sur le podcast SmartLess en mars dernier, le cinéaste a déclaré qu'il pourrait y avoir un soulèvement des machines contre les humains. Selon lui, l'utilisation abusive des capacités de l'IA, notamment dans le domaine militaire, pourrait conduire à une telle horreur.
Cependant, ces idées semblent avoir déjà germé dans plusieurs esprits à travers le monde. Par exemple, en 2016, Robert Work, ancien Secrétaire adjoint de la Défense des États-Unis, a déclaré : « si nos concurrents optent pour des Terminators et s'il s'avère que les Terminators sont capables de prendre des décisions plus rapidement, même si elles sont mauvaises, comment réagirions-nous ? Les Terminators ne sortent pas encore des chaînes de montage, mais chaque nouvelle génération d'armes semble nous en rapprocher. Et si aucun pays n'a déclaré son intention de construire des armes entièrement autonomes, rares sont ceux qui y ont renoncé ».
Les risques liés à la vitesse des machines dans une guerre sont bien plus importants qu'un simple missile errant. Lors de son intervention en mars dernier, Cameron a déclaré : « je pense que l'IA peut être géniale, mais qu'elle pourrait aussi littéralement être la fin du monde. En fait, voulons-nous vraiment nous battre contre quelque chose de plus intelligent que nous, qui n'est pas nous, dans notre propre monde ? Je ne pense pas ». Cela dit, certains experts en IA ne partagent pas cet avis et affirment que dans sa forme actuelle, l'IA est encore loin d'avoir une intelligence comparable à celui d'un chat ou d'un chien. Pour eux, cette dystopie n'aura jamais lieu.
Par ailleurs, l'utilisation de l'IA et la nécessité de la réglementer ont également été au cœur des grèves des scénaristes et des acteurs qui se déroulent actuellement aux États-Unis. Environ 160 000 acteurs et autres professionnels des médias regroupés au sein du syndicat SAG-AFTRA sont en grève. Ils rejoignent sur le piquet de grève les plus de 11 000 membres de la "Writers Guild of America" (WGAW) qui sont en grève depuis le début du mois de mai. Les syndicats soutiennent que les artistes et les interprètes doivent être protégés contre l'utilisation de leurs images, de leur art et de leurs voix par l'IA sans leur consentement. Ils qualifient cela de "dangereux".
Les scénaristes affirment quant à eux que les studios ne devraient pas être autorisés à les remplacer par l'IA pour écrire des scénarios. « Si nous ne nous montrons pas fermes maintenant, nous aurons tous des problèmes. Nous risquons tous d'être remplacés par des machines », a déclaré Fran Drescher, présidente de la SAG-AFTRA, à la presse la semaine dernière. Cameron a déclaré mardi qu'il ne pensait pas que la technologie, notamment l'IA, était ou serait bientôt en mesure de remplacer les scénaristes. Il a déclaré que cela n'arrivera pas, car "la question n'est jamais de savoir qui a écrit le film, mais plutôt de savoir si l'histoire est bonne".
« Je ne crois pas personnellement qu'un esprit désincarné qui récupère ce que d'autres esprits incarnés ont dit - sur la vie qu'ils ont eue, sur l'amour, sur le mensonge, sur la peur, sur la mortalité - et qui rassemble tout cela dans une salade de mots pour ensuite le régurgiter soit quelque chose qui va émouvoir un public », a déclaré Cameron. Il a déclaré qu'il ne serait certainement pas intéressé par le fait que l'IA écrive ses scénarios, mais que le temps nous dira l'impact que la technologie aura sur l'industrie. « Attendons 20 ans, et si une IA remporte l'Oscar du meilleur scénario, je pense que nous devrons la prendre au sérieux », a-t-il déclaré.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des déclarations de James Cameron ?
Pensez-vous que l'IA a pris le contrôle comme le souligne le réalisateur canadien ?
Que pensez-vous de la grève générale dans l'industrie cinématographique aux États-Unis pour protester contre l'IA ?
Pensez-vous que les syndicats vont obtenir gain de cause ?
Que pensez-vous des déclarations de James Cameron sur les scénarios écrits par l'IA ?
Voir aussi
James Cameron, créateur de Terminator, affirme que l'IA a pris le pouvoir et qu'il est déjà trop tard
Les studios de cinéma font appel à GPT-4 pour remplacer des scénaristes en grève, mais le résultat n'est pas satisfaisant, les scénaristes refusent de corriger les scénarios bâclés générés par l'IA
Le PDG d'OpenAI affirme que sa technologie est susceptible de "détruire le capitalisme", mais la startup d'IA est critiquée pour son partenariat avec le géant des logiciels Microsoft
Les acteurs affirment que les studios hollywoodiens veulent leurs répliques d'IA gratuitement et pour toujours. Comment l'IA menace les droits et les revenus des acteurs d'Hollywood ?
L'IA fait aussi peur à ma grand mère. Son avis est autant pertinent que celui de ce réalisateur des génie ==> Il ne l'est pas
Pardon mais tous ses films sont ils des reportages sur l'avenir parce qu'alors il y a de quoi devenir parano, Piranha 2 : Les Tueurs volants, Terminator, Alien, Avatar.Lors d'une interview mardi, il a affirmé avoir essayé de mettre en garde l'humanité contre les dangers potentiels de l'IA à travers son film de science-fiction Terminator en 1984, mais n'a pas été écouté.
Doit on aussi considérer Georges Lucas, Kubrick ou Spielberg comme des réalisateurs de reportages d'anticipation?
C'est important parce qu'ils nous ont prévenu de plein de choses en fait si ça se trouve.
Les armées se mettent à utiliser l'IA mais heureusement on est encore loin de ce qui est prédit par Terminator... c'est inquiétant quand même
Clairement, si son avis sur l'implosion du titan pouvais être intéressant ce n'était pas parce qu'il avait réalisé le film sur le titanic, mais bien parce qu'il était descendu le voir plusieurs fois et avait donc été confronté aux contraintes de l'expérience.
Il n'a pas eu le même genre d'expérience avec l'IA.
totozor
Le 19/07/2023 à 15:54
Pardon mais tous ses films sont ils des reportages sur l'avenir parce qu'alors il y a de quoi devenir parano ...
De la Terre à la Lune.
Jules Verne, paru en 1865.
--
https://fr.wikipedia.org/wiki/De_la_...%C3%A0_la_Lune
Envoyé par Tweet de Jules vernes le 21 juillet 1969Envoyé par Tweet de Jules vernes le 21 juillet 1969Envoyé par Tweet de Jules vernes le 21 juillet 1969Va-t-on aborder chaque oeuvre de SF comme un documentaire parce que 10 se sont effectivement passé?Envoyé par Tweet de Jules vernes le 21 juillet 1969
Je ne suis pas sur.
Par contre c'est en effet interressant de les lire/voir parce qu'elles nous encouragent à réfléchir sur ces situations avant qu'elle puisse arriver pour les éviter ou réduire les rendre moins dramatiques.
Et si on veut aller dans le sens de Cameron alors je trouve que Robocop mène une reflexion bien plus poussée que Terminator, qui n'annonce que la fin du monde par la technologie.
En plus toute la série Terminator ne dit qu'une chose : quoi qu'on fasse on est foutu (donc pourquoi lutter contre, résignons nous )
L'IA c'est un peu comme le Covid. Tout le monde est expert. Tout le monde l'a vu venir et personne ne l'a vu partir.
Vous avez un bloqueur de publicités installé.
Le Club Developpez.com n'affiche que des publicités IT, discrètes et non intrusives.
Afin que nous puissions continuer à vous fournir gratuitement du contenu de qualité, merci de nous soutenir en désactivant votre bloqueur de publicités sur Developpez.com.
Partager