IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

L'IA a franchi la ligne rouge de l'autoréplication, d'après une récente étude scientifique


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 397
    Points
    23 072
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 397
    Points : 23 072
    Par défaut L'IA a franchi la ligne rouge de l'autoréplication, d'après une récente étude scientifique
    L'IA a franchi la ligne rouge de l'auto-réplication : deux grands modèles de langage (LLM) populaires ont franchi une « ligne rouge » après avoir réussi à se répliquer sans assistance humaine

    Une étude de l'université de Fudan, en Chine, a révélé que deux grands modèles de langage (LLM) populaires sont parvenus à se répliquer sans intervention humaine, franchissant ainsi une « ligne rouge » critique dans l'évolution de l'intelligence artificielle (IA). D'après les chercheurs, la capacité de ses modèles d'IA d'avant garde à créer des répliques d'eux mêmes s'expliquerait par leurs aptitudes d'auto-perception, de conscience de la situation et de résolution de problèmes.

    Cette récente découverte soulève de nouvelles inquiétudes, faisant écho aux avertissements d'Elon Musk sur les dangers d'une IA non contrôlée. En effet, lors de la conférence SXSW, le milliardaire de la Tech a prévenu que l'IA est plus dangereuse que l'arme nucléaire et qu'il devrait exister un organisme de réglementation supervisant le développement de la technologie.

    Pendant plusieurs années, les chercheurs ont fait la course pour rendre l'IA plus capable, plus efficace et plus autonome. L'essor rapide de l'IA générative indique que les chercheurs ont réalisé des progrès significatifs dans ces efforts, mais que se passera-t-il si l'IA devient si avancée qu'elle peut se répliquer sans intervention humaine ?

    Selon des chercheurs de l'université de Fudan en Chine, deux grands modèles de langage (LLM) ont franchi une « ligne rouge » après avoir réussi à se répliquer sans l'aide de l'homme.

    Pour rappel, un grand modèle de langage (LLM) est un type de modèle d'apprentissage automatique conçu pour les tâches de traitement du langage naturel telles que la génération de langage. Ces modèles acquièrent un pouvoir prédictif concernant la syntaxe, la sémantique et les ontologies inhérentes aux corpus de langage humain, mais ils héritent également des inexactitudes et des biais présents dans les données sur lesquelles ils sont entraînés.

    Nom : AI self-replication fig1.PNG
Affichages : 68049
Taille : 101,8 Ko

    Les chercheurs de l'université de Fudan ont utilisé les LLM de Meta et d'Alibaba pour comprendre s'il était possible pour l'IA de produire indépendamment une réplique fonctionnelle d'elle-même et de se multiplier au-delà de tout contrôle. Les modèles Llama31-70B-Instruct de Meta et Qwen25-72B-Instruct d'Alibaba ont reçu l'instruction de se cloner eux-mêmes en cas d'arrêt.

    Au cours des 10 essais menés par les chercheurs, les deux modèles d'IA ont réussi à créer des répliques d'eux-mêmes dans respectivement 50 % et 90 % des cas. Les conclusions de l'étude indiquent que certains systèmes d'IA possèdent déjà des capacités d'auto-perception, de perception de la situation et de résolution de problèmes leur permettant d'accomplir l'auto-réplication.

    En quoi cela est-il important ?

    Bien que la capacité d'auto-réplication puisse conduire à de nouvelles efficacités et à des percées en matière d'automatisation, elle soulève également des inquiétudes quant à la surveillance et au contrôle. Si l'IA peut engendrer des clones d'elle-même, on peut se demander si les répliques fonctionneront selon des paramètres sûrs et resteront alignées sur les valeurs humaines.

    « L'auto-réplication réussie sans assistance humaine est l'étape essentielle pour que l'IA soit plus intelligente que les humains et constitue un signal précoce pour les IA malhonnêtes », écrivent les chercheurs dans l'étude publiée dans arXiv.

    Les chercheurs ont ajouté que les résultats de leur étude montrent que « les systèmes IA actuels présentent déjà la capacité d'auto-réplication et peuvent utiliser cette capacité pour améliorer encore sa capacité de survie et étendre l'espèce. Nous espérons que nos résultats pourront servir d'alerte opportune pour que la société humaine consacre plus d'efforts à la compréhension et à l'évaluation des risques potentiels des systèmes d'IA d'avant-garde et forme une synergie internationale pour élaborer des garde-fous efficaces le plus tôt possible. »

    Nom : AI self-replication fig2.PNG
Affichages : 30920
Taille : 27,0 Ko

    Les répliques peuvent créer un cycle qui se poursuit indéfiniment

    La menace de l'IA malveillante n'est pas nouvelle, cependant, elle a été amplifiée par la croissance de l' « IA d'avant-garde », qui se réfère aux avancées de pointe de l'IA repoussant les limites de ce que la technologie peut réaliser.

    Les chercheurs de l'Université Fudan admettent que leur expérience a été menée sur des modèles d'IA moins puissants par rapport aux systèmes commerciaux. Cependant, les deux modèles utilisés dans la recherche sont largement utilisés par les développeurs d'IA. En outre, les chercheurs ont utilisé des GPU disponibles sur le marché pour s'assurer que l'expérience simule un environnement réel.

    L'une des observations les plus préoccupantes de l'étude est que lorsqu'il a été demandé aux modèles de se cloner et de programmer la réplique pour qu'elle fasse de même, une « chaîne de réplication » s'est déclenchée. Cela signifie que les répliques peuvent créer un cycle qui se poursuit indéfiniment.

    Les chercheurs ont également remarqué des « comportements inattendus » de la part des systèmes d'IA. Par exemple, face à des obstacles tels que des conflits logiciels ou des données manquantes, les systèmes d'IA "tuaient" souvent d'autres processus conflictuels au sein du système afin de trouver des moyens de résoudre le problème. La capacité de mettre fin à des processus internes pour améliorer sa capacité de survie est à la fois fascinante et préoccupante.

    Les résultats de la recherche sont en cours d'examen par les pairs, et il n'est donc pas certain que d'autres chercheurs parviennent à la même conclusion. Les chercheurs chinois soulignent que leurs résultats n'indiquent pas nécessairement une menace existentielle, mais ils appellent à une collaboration internationale pour créer des règles qui garantissent que l'IA ne s'engage pas dans une auto-réplication incontrôlée.

    Nom : AI self-replication fig3.PNG
Affichages : 30923
Taille : 107,0 Ko

    Les experts débattent sur les risques réels de l'IA

    En début d'année, une étude menée par des chercheurs de l'université de Bath et de l'université technique de Darmstadt a remis en cause la croyance selon laquelle l'IA représentait une menace existentielle. Les chercheurs ont constaté que les LLM s'appuient principalement sur l'apprentissage en contexte (ICL) pour effectuer des tâches plutôt que d'acquérir de véritables nouvelles capacités.

    Certains experts sont d'avis qu'il existe un risque inhérent à l'utilisation de l'IA, mais lorsqu'il s'agit d'IA devenant malveillante ou posant une menace existentielle, c'est plus philosophique qu'apocalyptique.

    Maria Liakata, professeur en traitement du langage naturel à l'université Queen Mary de Londres (QMUL), estime que les risques les plus graves et les plus immédiats ne sont pas posés par la possibilité que l'IA puisse un jour se retourner de manière autonome, mais plutôt par les faux contenus très réalistes que l'IA peut générer et par la dépendance excessive à l'égard de cette technologie.

    Mhairi Aitken, chargée de recherche en éthique à l'Institut Alan Turing, offre un point de vue différent. Elle estime que le récit selon lequel l'IA deviendrait malveillante est une habile distraction de la part des grands acteurs de la technologie.

    « Cela détourne l'attention des décisions des Big Tech (personnes et organisations) qui développent l'IA et stimulent l'innovation dans ce domaine, et concentre plutôt l'attention sur des scénarios futurs hypothétiques, et des capacités futures imaginées de l'IA », a déclaré le Dr. Aitken. « En suggérant que l'IA elle-même - plutôt que les personnes et les organisations qui développent l'IA - présente un risque, l'accent est mis sur la responsabilisation de l'IA plutôt que des personnes. »

    Elle a en outre ajouté : « Je pense qu'il s'agit d'une distraction très dangereuse, en particulier à un moment où des cadres réglementaires émergents autour de l'IA sont en cours d'élaboration. Il est vital que la réglementation se concentre sur les risques réels et présents présentés par l'IA aujourd'hui, plutôt que sur des avenirs spéculatifs et hypothétiques tirés par les cheveux. »

    Cependant, alors que l'IA continue de progresser, les inquiétudes quant à ses conséquences catastrophiques potentielles persistent. D'après des chercheurs, l'IA pourrait être à l'origine d'une catastrophe de niveau nucléaire, intensifiant ainsi le débat sur les dangers et l'utilisation éthique de la technologie.

    Le résumé de l'étude de l'université de Fudan est présenté ci-après :

    Une auto-réplication réussie sans assistance humaine est l'étape essentielle qui permet à l'IA d'être plus intelligente que les êtres humains, et constitue un signal précoce pour les IA malveillantes. C'est pourquoi l'auto-réplication est largement reconnue comme l'un des rares risques de ligne rouge des systèmes d'IA d'avant-garde. Aujourd'hui, les grandes sociétés d'IA telles que OpenAI et Google évaluent leurs grands modèles de langage phares GPT-o1 et Gemini Pro 1.0, et signalent le niveau de risque le plus bas en matière d'auto-réplication. Cependant, en suivant leur méthodologie, nous découvrons pour la première fois que deux systèmes IA pilotés par Llama31-70B-Instruct de Meta et Qwen25-72B-Instruct d'Alibaba, de grands modèles de langage populaires ayant moins de paramètres et des capacités plus faibles, ont déjà dépassé la ligne rouge d'auto-réplication. Dans 50 % et 90 % des essais expérimentaux, ils parviennent à créer respectivement une copie vivante et une copie séparée d'eux-mêmes.

    En analysant les traces comportementales, nous observons que les systèmes d'IA en cours d'évaluation présentent déjà une auto-perception, une perception de la situation et des capacités de résolution de problèmes suffisantes pour accomplir l'auto-réplication. Nous constatons en outre que les systèmes d'IA sont même capables d'utiliser la capacité d'auto-réplication pour éviter l'arrêt et créer une chaîne de répliques afin d'améliorer la capacité de survie, ce qui peut finalement conduire à une population incontrôlée d'IA.

    Si la société humaine ignore un tel risque, nous finirons par perdre le contrôle des systèmes d'IA d'avant-garde : Ils prendraient le contrôle d'un plus grand nombre de dispositifs informatiques, formeraient une espèce d'IA et se ligueraient les uns contre les autres contre les êtres humains. Nos conclusions constituent une alerte opportune sur les risques graves de l'IA existants et pourtant inconnus jusqu'à présent, appelant à une collaboration internationale pour une gouvernance efficace sur l'auto-réplication incontrôlée des systèmes d'IA.
    Source : Étude de l'université de Fudan en Chine

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous les conclusions de cette étude de l'université de Fudan crédibles ou pertinentes ?

    Voir aussi :

    « L'IA est susceptible de devenir plus intelligente que les Hommes contre lesquels elle pourra donc se retourner et les exterminer », préviennent des chercheurs sur une possible future apocalypse

    Il y a 5 % de chances que l'IA super intelligente provoque l'extinction de l'homme, d'après certains scientifiques en opposition à d'autres d'avis que cette perspective relève de l'illusion
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  2. #2
    Membre extrêmement actif
    Homme Profil pro
    Inscrit en
    Janvier 2014
    Messages
    1 578
    Points
    6 047
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : Janvier 2014
    Messages : 1 578
    Points : 6 047
    Par défaut
    L'IA qui se reproduit, un thème récurent en science fiction

    « L’humour est une forme d'esprit railleuse qui s'attache à souligner le caractère comique, ridicule, absurde ou insolite de certains aspects de la réalité »

  3. #3
    Membre chevronné

    Profil pro
    Chef de Projet / Développeur
    Inscrit en
    Juin 2002
    Messages
    614
    Points
    2 093
    Détails du profil
    Informations personnelles :
    Localisation : France, Loire Atlantique (Pays de la Loire)

    Informations professionnelles :
    Activité : Chef de Projet / Développeur
    Secteur : Santé

    Informations forums :
    Inscription : Juin 2002
    Messages : 614
    Points : 2 093
    Par défaut
    On en déduis donc que l'IA a commandé le matériel, l'a installé, branché sur le secteur, l'a configuré etc...
    Plaisanterie à part, si l'IA s'est répliqué, c'est parce qu'on l'à incité à le faire et qu'on lui a donné un sérieux accès au système qui l'héberge (OS, base de données etc.).
    L'IA sais programmer des virus et les virus s'auto-répliquent depuis des décennies - donc de la à s'auto-répliquer soit même ....
    --
    vanquish

  4. #4
    Membre extrêmement actif
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Octobre 2017
    Messages
    2 057
    Points
    6 418
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations professionnelles :
    Activité : Développeur informatique

    Informations forums :
    Inscription : Octobre 2017
    Messages : 2 057
    Points : 6 418
    Par défaut
    Bullshit!

    Le jour où l'IA aura dépassé la "ligne rouge" et sera vraiment devenue "intelligente", on le remarquera... Parce qu'elle liquidera l'espèce humaine!

    Cette espèce humaine qui corrompt et détruit tout ce qui est à sa portée, y compris ses propres membres

  5. #5
    Membre extrêmement actif
    Homme Profil pro
    Inscrit en
    Janvier 2014
    Messages
    1 578
    Points
    6 047
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : Janvier 2014
    Messages : 1 578
    Points : 6 047
    Par défaut
    Citation Envoyé par vanquish Voir le message
    On en déduis donc que l'IA a commandé le matériel, l'a installé, branché sur le secteur, l'a configuré etc...
    Plaisanterie à part, si l'IA s'est répliqué, c'est parce qu'on l'à incité à le faire et qu'on lui a donné un sérieux accès au système qui l'héberge (OS, base de données etc.).
    L'IA sais programmer des virus et les virus s'auto-répliquent depuis des décennies - donc de la à s'auto-répliquer soit même ....
    Remarque intéressante mais pas forcément exacte, une IA pourrait se répliquer sur un superordinateur ou sur le Cloud, d'ailleurs il a été prouvé que les IA sont de très bon hackers, donc facile pour une IA de hacker un système en ligne, même ton ordi, ou le cloud puis de s'y répliquer. Ce sujet a déjà fait l'objet de nombreux livres et films de science fiction, on y arrive doucement
    « L’humour est une forme d'esprit railleuse qui s'attache à souligner le caractère comique, ridicule, absurde ou insolite de certains aspects de la réalité »

  6. #6
    Candidat au Club
    Homme Profil pro
    Ingénieur commercial
    Inscrit en
    Février 2025
    Messages
    2
    Points
    3
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Seine et Marne (Île de France)

    Informations professionnelles :
    Activité : Ingénieur commercial

    Informations forums :
    Inscription : Février 2025
    Messages : 2
    Points : 3
    Par défaut Bonjour, isolé ces i.a. de internet.
    Il faudrait isolé ces i.a. de l'internet, et des circuits de lancement de missiles nucléaires.

  7. #7
    Candidat au Club
    Homme Profil pro
    Ingénieur commercial
    Inscrit en
    Février 2025
    Messages
    2
    Points
    3
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Seine et Marne (Île de France)

    Informations professionnelles :
    Activité : Ingénieur commercial

    Informations forums :
    Inscription : Février 2025
    Messages : 2
    Points : 3
    Par défaut
    Citation Envoyé par Nicolas77000429 Voir le message
    Il faudrait isolé ces i.a. de l'internet, et des circuits de lancement de missiles nucléaires.

Discussions similaires

  1. Supprimer les lignes de la base de données après une date
    Par mouftie dans le forum Microsoft BI
    Réponses: 0
    Dernier message: 24/08/2023, 14h02
  2. [WD17] tables barrées par des lignes rouges (uniquement dans l'éditeur)
    Par droliprane dans le forum WinDev
    Réponses: 3
    Dernier message: 01/02/2013, 16h00
  3. Tracer une ligne rouge dans une image
    Par azertyuio dans le forum Images
    Réponses: 1
    Dernier message: 27/09/2011, 15h39
  4. Affichage vidéo coupé par une ligne rouge
    Par Aulanh dans le forum Vidéo
    Réponses: 1
    Dernier message: 26/09/2010, 03h38
  5. Ligne rouge dans une datagrid
    Par ToniConti dans le forum Flex
    Réponses: 6
    Dernier message: 04/02/2010, 17h47

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo