1 pièce(s) jointe(s)
POUR MOI C'EST CELUI QUI PROGRAMERAS CETTE IA QUI SERAS PLUS INTELLIGENT QUE SA MACHINE'
POUR MOI C'EST CELUI QUI PROGRAMERAS CETTE IA QUI SERAS PLUS INTELLIGENT QUE SA MACHINE
Pièce jointe 417670
un WEEK-END avec Sophia a Deauville
franchement, elle n'a pad grande conversation.
Même nos rapport etaient froid.
Vivement dans dans 5 ou 10 ans !!!!
2 pièce(s) jointe(s)
« L’atteinte de l’IA de niveau humain (AGI) est possible dans une décennie », selon le PDG de Google Deepmind
« L’atteinte d’une forme d’intelligence artificielle de niveau humain (AGI) est possible dans une décennie », d’après le PDG de Google Deepmind
Pour le développement responsable des systèmes d’IA
L’intelligence artificielle soulève déjà des questions difficiles pour l’humanité : les universitaires se demandent s’il faut revenir aux examens oraux à l’ère de ChatGPT, les professionnels de plusieurs métiers craignent désormais pour leurs emplois dans le futur, etc. La liste devrait aller en s’allongeant en cas d’atteinte par les équipes de recherche de l’intelligence artificielle de niveau humain. C’est la raison pour laquelle le PDG de Google Deepmind appelle au développement responsable des systèmes d’intelligence artificielle. La recette : poursuivre avec la compréhension des modèles actuels pour une transition en douce. Sinon, ce serait la porte ouverte à des catastrophes, comme déjà prédit par plusieurs acteurs et observateurs de la filière.
L’atteinte de l’intelligence artificielle de niveau humain est possible dans une décennie, selon le PDG de Google Deepmind. Rendues à ce stade, les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale (AGI), elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. »
En attendant d’y être, le PDG de Google Deepmind recommande d’opter pour le développement responsable des systèmes d’intelligence artificielle pour une transition en douce. « Je suis pour que nous poursuivions avec les travaux sur des systèmes d’IA à déployer comme outils afin de nous permettre de mieux les comprendre avant d’aller à un autre stade », reconnaît-il en soulignant en sus que « cette approche peut permettre une meilleure exploration des mystères de la conscience. »
Un ancien chercheur clé d'OpenAI estime qu'il y a des chances que l'intelligence artificielle générale (AGI) prenne le contrôle de l'humanité et la détruise
« Je le prends très au sérieux. Dans l'ensemble, nous parlons peut-être d'une probabilité de catastrophe de 50/50 peu de temps après que nous avons mis en place des systèmes qui concernent l'humain », déclare Paul Christiano.
Son propos rejoint celui de Geoffrey Hinton : « L'idée que l'IA puisse devenir plus intelligente que les gens, quelques personnes y ont cru. Mais la plupart des gens pensaient que c'était une erreur. Et je pensais personnellement que c'était loin d'être le cas. Je me disais qu'il fallait attendre dans les 30 à 50 ans, voire plus. Évidemment, je ne le pense plus. »
Stephen Hawking a prévenu en 2014 que le développement d'une IA de niveau humain pourrait sonner le glas de la race humaine
Stephen Hawking (1942-2018) est un physicien théoricien, cosmologiste et auteur britannique qui a apporté d'importantes contributions au domaine de la physique, en particulier dans l'étude des trous noirs et de la nature du temps. Il est également connu pour son livre à succès "Une brève histoire du temps", qui explique des concepts scientifiques complexes à un public populaire. Il a appris à 21 ans qu'il souffrait d'une sclérose latérale amyotrophique (SLA), une forme rare de maladie des neurones moteurs qui l'a progressivement laissé paralysé et incapable de parler. Mais malgré ses limitations physiques, il a continué à travailler et à communiquer.
Bien sûr, tout cela a été rendu possible grâce à des outils issus des premières années de l'IA : il s'est appuyé sur un dispositif de génération de la parole, qu'il utilisait pour donner des conférences et écrire des livres. Cet appareil, appelé "Equalizer", a été mis au point par une société californienne appelée Words Plus. Pour faire court, le gadget permettait à Hawking de sélectionner des mots et des phrases sur un écran d'ordinateur à l'aide d'un commutateur manuel, qu'il pouvait actionner grâce à ses fonctions motrices limitées. Une fois qu'il avait sélectionné un mot ou une phrase, l'appareil générait une voix synthétique qui prononçait les mots à haute voix.
Hawking a pu expérimenter l'un des cas d'utilisation de l'IA, mais quelques années avant sa mort, il a mis en garde contre les dangers potentiels que la technologie pourrait représenter pour l'humanité. Dans une interview accordée à la BBC en 2014, Hawking a déclaré que le développement d'une intelligence artificielle de niveau humain pourrait sonner le glas de l’espèce humaine. Bien qu'il utilisait lui-même une forme élémentaire d'IA, il a averti que la création de systèmes intelligents qui rivalisent avec l'intelligence humaine ou la surpassent pourrait être désastreuse pour l'homme. Rappelons qu'il a utilisé son dispositif de communication de 1985 à sa mort le 14 mars 2018.
« Les humains, qui sont limités par une évolution biologique lente, ne pourraient pas rivaliser et seraient supplantés », a ajouté Hawking. Dans son dernier livre, "Brief Answers to the Big Questions", publié après sa mort en 2018, Hawking a affirmé que les ordinateurs "dépasseront probablement les humains en matière d'intelligence" d'ici 100 ans. « Nous pourrions être confrontés à une explosion de l'intelligence qui aboutirait finalement à des machines dont l'intelligence dépasserait la nôtre de plus que la nôtre ne dépasse celle des escargots », a-t-il écrit dans son livre. Il a appelé à former l'IA pour qu'elle s'aligne systématiquement sur les objectifs humains.
En outre, il a prévenu que ne pas prendre au sérieux les risques associés à l'IA pourrait être la pire erreur que l'humanité ait jamais faite.
C’est la raison pour laquelle des experts de la filière demandent à tous les laboratoires d’interrompre la formation de systèmes d’intelligence artificielle
Dans une lettre ouverte, Elon Musk et un groupe d'experts en intelligence artificielle et de dirigeants de l'industrie demandent une pause de six mois dans le développement de systèmes plus puissants que le GPT-4 récemment lancé par OpenAI, en invoquant les risques potentiels pour la société et l'humanité.
Au début du mois de mars, OpenAI, soutenue par Microsoft, a dévoilé la quatrième itération de son programme d'IA GPT (Generative Pre-trained Transformer), qui a séduit les utilisateurs par sa vaste gamme d'applications, allant de l'engagement des utilisateurs dans une conversation de type humain à la composition de chansons et au résumé de longs documents.
La lettre, publiée par l'organisation à but non lucratif Future of Life Institute et signée par plus de 1 000 personnes, dont Musk, appelle à une pause dans le développement de l'IA avancée jusqu'à ce que des protocoles de sécurité partagés pour de telles conceptions soient élaborés, mis en œuvre et contrôlés par des experts indépendants.
« Des systèmes d'IA puissants ne devraient être développés qu'une fois que nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables », peut-on lire dans la lettre.
La lettre détaille les risques potentiels pour la société et la civilisation que représentent les systèmes d'IA compétitifs pour les humains, sous la forme de perturbations économiques et politiques, et appelle les développeurs à travailler avec les décideurs politiques sur la gouvernance et les autorités de régulation.
Parmi les cosignataires figurent Emad Mostaque, PDG de Stability AI, des chercheurs de DeepMind, propriété d'Alphabet (GOOGL.O), et des poids lourds de l'IA, Yoshua Bengio, souvent considéré comme l'un des "parrains de l'IA", et Stuart Russell, pionnier de la recherche dans ce domaine.
Selon le registre de transparence de l'Union européenne, Future of Life Institute est principalement financé par la Musk Foundation, ainsi que par le groupe Founders Pledge, basé à Londres, et la Silicon Valley Community Foundation.
Ces inquiétudes surviennent alors qu'Europol, la police de l'Union européenne, s'est jointe le 27 mars 2023 à un concert de préoccupations éthiques et juridiques concernant l'IA avancée telle que ChatGPT, mettant en garde contre l'utilisation abusive potentielle du système dans des tentatives de phishing, de désinformation et de cybercriminalité.
Dans le même temps, le gouvernement britannique a dévoilé des propositions pour un cadre réglementaire adaptable autour de l'IA. L'approche du gouvernement, décrite dans un document d'orientation publié il y a peu, répartirait la responsabilité de la gestion de l'intelligence artificielle entre les organismes de réglementation des droits de l'Homme, de la santé et de la sécurité, et de la concurrence, plutôt que de créer un nouvel organisme dédié à la technologie.
Les grandes enseignes technologiques multiplient les projets dans le but d’atteindre l’intelligence artificielle de niveau humain
Google par exemple est lancé en secret sur le développement de Pitchfork ou AI Developer Assistance. C’est un outil qui utilise l'apprentissage automatique pour apprendre au code à s'écrire et se réécrire lui-même. Comment ? En apprenant des styles correspondant à des langages de programmation et en appliquant ces connaissances pour écrire de nouvelles lignes de code.
L’intention initiale derrière ce projet était de créer une plateforme capable de mettre automatiquement à jour la base de code Python chaque fois qu'une nouvelle version était publiée, sans nécessiter l'intervention ou l'embauche d'un grand nombre d'ingénieurs. Cependant, le potentiel du programme s'est avéré beaucoup plus important que prévu. Désormais, l'intention est de donner vie à un système polyvalent capable de maintenir un standard de qualité dans le code, mais sans dépendre de l'intervention humaine dans les tâches de développement et de mise à jour.
Un tel objectif pourrait ne plus relever de la science-fiction en cas d’atteinte du stade d’intelligence artificielle générale. Le tableau viendrait alors raviver la possibilité pour l’humanité d’entrer dans une ère de domination par les machines comme prédit par de nombreuses productions cinématographiques à l’instar de Terminator, Matrix ou encore i-Robot.
C’est d’ailleurs la raison pour laquelle Elon Musk travaille sur un projet visant à fusionner un cerveau humain et un ordinateur afin de permettre aux Hommes de rivaliser avec l’intelligence artificielle. Le « Neural Lace » est une interface cerveau-ordinateur permettant de relier le cerveau humain à des ordinateurs sans avoir besoin de connexion physique. Cette technologie donnerait aux humains la possibilité de fusionner avec l’intelligence artificielle et d’améliorer ainsi leur mémoire et leurs facultés cognitives. Cette puce issue de sa société Neuralink peut diffuser de la musique directement au cerveau. C’est l’une des applications de cette interface cerveau-ordinateur à côté d’autres comme la possibilité de guérir la dépression et la dépendance.
Elon Musk est d’avis que seule la mise sur pied d’une interface cerveau-ordinateur peut permettre à l’Homme de subsister. Son initiative vise une sorte de symbiose avec l'intelligence artificielle, ce, à un degré qui rendrait le langage humain obsolète. Il suffirait alors de penser pour communiquer. Grosso modo, dans les laboratoires de la société d’Elon Musk, on est au « service de l’humanité. »
Source : Entretien en vidéo
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Comment évaluez-vous les avancées en matière d’intelligence artificielle ? Quels sont les marqueurs qui laissent penser que ce n’est qu’une question de temps avant que la recherche n’atteigne le stade d’intelligence artificielle de niveau humain ? Est-il possible que ce ne soit jamais le cas ?
Voir aussi :
:fleche: Les IA inamicales constituent-elles le plus grand risque pour l'humanité ? Oui, d'après le créateur d'Ethereum qui s'attend à une future catastrophe, causée par l'intelligence artificielle générale
:fleche: « Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk, dont une société développe des puces à insérer dans le cerveau pour contrer l'IA
:fleche: Un chercheur de Google Deepmind cosigne un article selon lequel l'IA éliminera l'humanité et ravive les débats sur la possibilité d'un futur où la machine domine sur l'Homme
:fleche: L'apocalypse s'accomplira-t-elle avec la création de l'IA ? L'entrepreneur Elon Musk pense que l'IA est la plus grande menace de l'humanité
2 pièce(s) jointe(s)
L’atteinte d’une forme d’intelligence artificielle de niveau humain est-elle plus rapide que prévu ?
L'atteinte d'une forme d'IA de niveau humain est-elle plus rapide que prévu ? Il y aurait une chance sur deux pour qu'une « AGI » soit conçue,
testée et annoncée publiquement d'ici 2040
L’IA se rapproche des capacités humaines plus rapidement que prévu. Les développements rapides de l’IA dans des domaines tels que le traitement du langage naturel (NLP) ont relancé le débat sur ce concept qui serait pour certains observateurs largement spéculatif. ChatGPT représente une avancée majeure dans le domaine du traitement du langage naturel. Ce modèle de génération de langage à la pointe de la technologie a déjà fait ses preuves dans divers secteurs. L’évolution rapide de l’IA au cours des derniers mois montre que l’ère de l’IA est déjà à nos portes. De nombreuses entreprises technologiques, telles que Baidu et Google BARD, travaillent déjà sur leurs propres modèles concurrentiels pour ChatGPT.
Cependant, il est important de noter que ce que nous avons réalisé jusqu’à présent est une forme d’intelligence artificielle étroite (ANI). Ces systèmes d’IA sont conçus pour effectuer des tâches spécifiques, comme la reconnaissance d’images ou le jeu d’échecs, mais ils n’ont pas la compréhension générale du monde qu’aurait une intelligence artificielle générale (AGI). L’AGI désigne un type de système d’IA capable d’effectuer toutes les tâches intellectuelles d’un être humain. En d’autres termes, l’AGI possède une compréhension générale du monde et peut s’adapter à de nouvelles situations et environnements, tout comme le ferait un être humain.
Une IA de niveau humain serait une machine, ou un réseau de machines, capable d'effectuer la même gamme de tâches que celles dont nous sommes capables. Il s'agirait d'une machine « capable d'apprendre à faire tout ce qu'un humain peut faire », comme le disent Norvig et Russell dans leur manuel sur l'IA. Elle serait capable de choisir les actions qui lui permettent d'atteindre ses objectifs et de les exécuter. Elle serait capable de faire le travail d'un traducteur, d'un médecin, d'un illustrateur, d'un enseignant, d'un thérapeute, d'un chauffeur, ou le travail d'un investisseur.
Ces dernières années, plusieurs équipes de recherche ont contacté des experts en IA et les ont interrogés sur leurs attentes concernant l'avenir de l'intelligence artificielle. Ces enquêtes auprès d'experts sont l'un des éléments d'information sur lesquels nous pouvons nous appuyer pour nous faire une idée de ce que pourrait être l'avenir de l'IA. Il a été demandé aux experts s'ils pensaient qu'il y avait 50 % de chances que l'IA de niveau humain existe.
L’atteinte de l’intelligence artificielle de niveau humain est possible dans une décennie, selon le PDG de Google Deepmind. Rendues à ce stade, les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale (AGI), elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. »
En attendant d’y être, le PDG de Google Deepmind recommande d’opter pour le développement responsable des systèmes d’intelligence artificielle pour une transition en douce. « Je suis pour que nous poursuivions avec les travaux sur des systèmes d’IA à déployer comme outils afin de nous permettre de mieux les comprendre avant d’aller à un autre stade », reconnaît-il en soulignant en sus que « cette approche peut permettre une meilleure exploration des mystères de la conscience. »
Définitions de l'intelligence, de l'IA et de l'AGI.
L’intelligence artificielle générale : mythe ou réalité ?
Voici, une définition informelle de l'intelligence en mettant l'accent sur le raisonnement, la planification et l'apprentissage par l'expérience. Cette définition ne précise pas comment mesurer ou compenser ces capacités. De plus, elle ne reflète peut-être pas les défis et les opportunités spécifiques des systèmes artificiels, qui peuvent avoir des objectifs et des contraintes différents de ceux des systèmes naturels.
Il existe une littérature abondante et continue qui tente de proposer des définitions plus formelles et plus complètes de l’intelligence, de l’IA et de l’AGI, mais aucune d’entre elles n’est exempte de problèmes ou de controverses. Par exemple, Legg et Hutter proposent une définition de l’AGI axée sur les objectifs : l’intelligence mesure la capacité d’un agent à atteindre des objectifs dans un large éventail d’environnements.
Toutefois, cette définition n’englobe pas nécessairement tout le spectre de l’intelligence, car elle exclut les systèmes passifs ou réactifs qui peuvent accomplir des tâches complexes ou répondre à des questions sans motivation ou objectif intrinsèque. On pourrait imaginer une AGI, un oracle brillant par exemple, qui n’a pas d’agence ni de préférences, mais qui peut fournir des informations précises et utiles sur n’importe quel domaine.
En outre, la définition de la réalisation d’objectifs dans un large éventail d’environnements implique également un certain degré d’universalité ou d’optimalité, qui n’est peut-être pas réaliste (l’intelligence humaine n’est certainement jamais universelle ni optimale). La nécessité de reconnaître l’importance des antécédents (par opposition à l’universalité) a été soulignée dans la définition proposée par Cholletin, qui centre l’intelligence sur l’efficacité de l’acquisition des compétences ou, en d’autres termes, met l’accent sur l’apprentissage par l’expérience (qui s’avère également être l’une des principales faiblesses des LLM).
Il n'existe pas de définition de l'intelligence qui fasse l'objet d'un consensus général, mais un aspect largement accepté est que l'intelligence ne se limite pas à un domaine ou à une tâche spécifique, mais qu'elle englobe plutôt un large éventail de compétences cognitives et d'aptitudes. Dans leurs premiers écrits, les fondateurs de la discipline moderne de la recherche sur l'intelligence artificielle (IA) ont parlé d'objectifs aspirationnels pour comprendre l'intelligence.
Au fil des décennies, les chercheurs en IA ont étudié les principes de l'intelligence, y compris les mécanismes généralisables de raisonnement et la construction de bases de connaissances contenant un large corpus de connaissances de bon sens. Cependant, bon nombre des succès récents de la recherche en IA peuvent être décrits comme étant étroitement concentrés sur des tâches et des défis bien définis, tels que le jeu de Chorus ou Go, qui ont été maîtrisés par des systèmes d'IA en 1996 et 2016, respectivement.
La singularité de l'IA fait référence à un futur hypothétique où l'intelligence artificielle surpasse l'intelligence humaine et évolue potentiellement hors du contrôle de l'homme. Elle est souvent associée à des scénarios dans lesquels les machines deviennent conscientes d'elles-mêmes et constituent une menace pour l'humanité. Cependant, tous les experts ne croient pas que l'IAG mènera à la singularité, et certains pensent que le développement de l'IAG pourrait ne jamais se produire. Jusqu'à présent, l'AGI reste un élément de base de la science-fiction, comme en témoignent les films hollywoodiens de science-fiction dystopique.
Calendrier de l'IA : Quelles sont les prévisions des experts en intelligence artificielle pour l'avenir ?
Selon une enquête menée par Our World in Data, les prévisionnistes estiment qu'il y a une chance sur deux pour qu'une « intelligence artificielle générale » soit « conçue, testée et annoncée publiquement » d'ici 2040, c'est-à-dire dans moins de 20 ans. Aujourd'hui, Translated, une société de traduction, a mis au point un indicateur, le Time to Edit (TTE), pour calculer le temps nécessaire aux rédacteurs humains professionnels pour corriger les traductions générées par l'IA par rapport aux traductions humaines. Cela pourrait aider à quantifier la vitesse à laquelle nous nous rapprochons de la singularité.
Translated a calculé qu'il faut environ une seconde à un traducteur humain pour corriger chaque mot produit par un autre traducteur humain. En 2015, les rédacteurs professionnels mettaient environ 3,5 secondes par mot pour réviser une suggestion traduite par une machine. À l'heure actuelle, ce délai a été ramené à 2 secondes. Si cette tendance se poursuit, Translated prévoit que sa technologie d'IA atteindra la qualité de la traduction humaine d'ici la fin de la décennie, voire plus tôt.
Progression vers la singularité de l'IA
D'autres enquêtes menées auprès d'experts en IA aboutissent à des conclusions similaires. Dans la visualisation suivante, j'ai ajouté les échéances de deux enquêtes antérieures menées en 2018 et 2019. Il est utile d'examiner différentes enquêtes, car elles diffèrent dans leur façon de poser la question et de définir l'IA de niveau humain. Vous trouverez plus de détails sur ces études à la fin de ce texte.
Le fait qu'il y ait de si grandes différences dans les réponses montre clairement que les experts ne sont pas d'accord sur le temps qu'il faudra pour développer un tel système. Certains pensent que ce niveau de technologie ne sera jamais développé. D'autres pensent que c'est possible, mais que cela prendra beaucoup de temps. Enfin, beaucoup pensent que ce système sera mis au point dans les prochaines décennies.
Comme le soulignent les annotations, la moitié des experts ont donné une date avant 2061, et 90 % ont donné une date dans les 100 prochaines années.
Que faut-il penser des calendriers des experts en IA ?
Les enquêtes auprès des experts sont un élément d'information à prendre en compte lorsque nous réfléchissons à l'avenir de l'IA, mais nous ne devons pas surestimer les résultats de ces enquêtes. Les experts d'une technologie particulière ne sont pas nécessairement des experts capables de prédire l'avenir de cette technologie.
Les experts de nombreux domaines n'ont pas de bons antécédents en matière de prévisions concernant leur propre domaine, comme l'ont montré des chercheurs tels que Barbara Mellers, Phil Tetlock et d'autres. L'histoire de l'aviation offre un exemple frappant d'un tel échec. Wilbur Wright aurait déclaré : « J'avoue qu'en 1901, j'ai dit à mon frère Orville que l'homme ne piloterait pas avant 50 ans ». Deux ans plus tard, non seulement « l'homme » pilotait, mais ce sont ces mêmes hommes qui ont réalisé l'exploit.
En outre, ces études révèlent souvent d'importants « effets de cadrage », c'est-à-dire que deux questions logiquement identiques reçoivent des réponses très différentes en fonction de la formulation exacte des questions. La grande majorité des experts pensent que, dans les décennies à venir, il y a une chance égale de voir apparaître une technologie d'IA qui aura un impact transformateur sur notre monde. Si certains prévoient des échéances lointaines, beaucoup pensent qu'il est possible que nous disposions de très peu de temps avant l'arrivée de ces technologies.
Source : Our world in data
Et vous ?
:fleche: L'IA se rapproche des capacités humaines plus rapidement que prévu ?
:fleche: Quels sont les avantages et les inconvénients de l’IA qui se rapproche des capacités humaines ?
:fleche: Quelles sont selon vous les limites actuelles de l’IA par rapport aux capacités humaines ?
:fleche: Quels seraient les domaines où l’IA pourrait surpasser les capacités humaines ?
Voir aussi :
:fleche: Les voitures autonomes seraient-elles déjà plus sûres que les conducteurs humains ? Cruise et Waymo affirment que c'est le cas
:fleche: La solution du GPT-4 à l'énigme de l'œuf équilibré aurait convaincu Microsoft que l'AGI, intelligence artificielle générale, est plus proche, selon Microsoft Research
:fleche: « L'atteinte d'une forme d'intelligence artificielle de niveau humain (AGI) est possible dans une décennie », d'après le PDG de Google Deepmind, pour le développement responsable des systèmes d'IA