Yann LeCun affirme que l'AGI est inévitable, mais qu'elle n'arrivera pas dans un avenir aussi proche qu'un an
Yann LeCun affirme que l'AGI est inévitable, mais qu'elle n'arrivera pas l'année prochaine et qu'elle ne sera pas uniquement l'œuvre des LLM
il propose une piste pour créer une IA de niveau humain
Yann LeCun, lauréat du prestigieux prix Turing et responsable de l'IA chez Meta, ne partage pas la dernière prédiction audacieuse d'Elon Musk selon laquelle l'IA surpassera l'intelligence humaine dès l'année prochaine. Le chercheur en IA affirme qu'une intelligence artificielle générale (AGI) est inéluctable, mais qu'elle n'arrivera pas d'ici à un an. Il a également déclaré que l'AGI n'émanera pas des grands modèles de langage (LLM) actuels, bien qu'ils puissent en constituer une composante. Pour lui, ces modèles d'IA ne sont pas en mesure de résoudre les défis cognitifs tels que le raisonnement, la planification, la mémoire persistante et la compréhension du monde physique.
De nombreux vulgarisateurs et chercheurs en IA se montrent enthousiastes vis-à-vis de l'AGI et font des prédictions très optimistes sur son avènement. Rien qu'au cours des dernières semaines, un trio d'éminences grises de la technologie a ajouté de nouvelles proclamations. Jensen Huang, PDG de Nvidia, a laissé entendre que l'AGI pourrait arriver d'ici cinq ans. Ben Goertzel, expert en IA et fondateur de SingularityNET, a prédit une arrivée dans trois ans seulement. Elon Musk, PDG de la startup xAI, s'est montré beaucoup plus optimiste et a donc fait la prédiction la plus audacieuse pour le point de basculement : la fin de l'année 2025.
Mais Yann LeCun est un sceptique notable de toutes ces prédictions. Considéré comme l'un des trois "parrains de l'IA", LeCun va jusqu'à affirmer que "l'AGI n'existe pas" parce que "l'intelligence humaine est loin d'être générale". Le Français préfère tracer la voie vers une "IA de niveau humain". Lors d'un événement organisé la semaine dernière à Londres, le centre d'ingénierie phare de Meta en dehors des États-Unis, LeCun a déclaré que même cette vision restait une destination lointaine. Il a évoqué un quartet de défis cognitifs : le raisonnement, la planification, la mémoire persistante et la compréhension du monde physique.
« Il s'agit de quatre caractéristiques essentielles de l'intelligence humaine - et de l'intelligence animale, d'ailleurs - que les systèmes d'IA actuels ne peuvent pas réaliser », explique-t-il. D'après LeCun, sans ces capacités, les applications de l'IA restent limitées et sujettes aux erreurs. Les véhicules autonomes ne sont toujours pas sûrs sur les routes publiques. Les robots domestiques se débattent avec les tâches ménagères de base. Nos assistants intelligents ne peuvent accomplir que des tâches élémentaires. Ces lacunes intellectuelles sont particulièrement évidentes dans les grands modèles de langage (LLM) qui propulsent l'IA.
Selon LeCun, ils sont sévèrement limités par leur dépendance à l'égard d'une forme de connaissance humaine : le texte. « Nous sommes facilement amenés à penser qu'ils sont intelligents en raison de leur maîtrise du langage, mais en réalité, leur compréhension de la réalité est très superficielle. Ils sont utiles, cela ne fait aucun doute. Mais sur le chemin qui mène à une intelligence de niveau humain, un LLM est essentiellement une rampe de sortie, une distraction, un cul-de-sac », a-t-il déclaré. En d'autres termes, LeCun estime que les LLM ne sont qu'un début et qu'une nouvelle approche est nécessaire pour atteindre l'AGI.
LeCun affirme que les LLM ne sont pas aussi intelligents qu'ils le paraissent et remet en cause l'efficace de l'approche utilisée dans leur entraînement. Les modèles tels que LLama de Meta, GPT-4 d'OpenAI et Gemini de Google sont formés à partir d'énormes quantités de données. Selon le chercheur français, il faudrait environ 100 000 ans à un humain pour lire tout le texte ingéré par un LLM de premier plan. Mais ce n'est pas la principale méthode d'apprentissage de l'humanité, qui consomme bien plus d'informations par le biais de ses interactions avec le monde. Cela suggère en effet que l'IA a besoin d'une incarnation physique.
Les scientifiques de Meta pensent qu'une AGI ne sera pas possible tant que l'IA ne sera pas dotée d'un corps physique. Il s'agit de l'hypothèse de l'IA incarnée. Selon cette approche, une IA de niveau humain ne peut émerger que si elle est capable de sentir et de naviguer dans un environnement physique, comme le font les bébés. À travers ce corps, l'IA peut interagir avec le monde physique et en tirer des enseignements. Cette hypothèse suscite de nombreuses discussions dans l'industrie et pousse certains investisseurs à investir massivement dans les entreprises d'IA qui fabriquent des robots humanoïdes à usage général.
L'hypothèse de l'IA incarnée est soutenue par les chercheurs du laboratoire Noah's Ark de Huawei basé à Paris. Ils ont évoqué cette idée dans un rapport d'étude publiée en février. Selon l'équipe de Huawei, donner un corps à l'IA est le seul moyen pour elle d'apprendre le monde par l'interaction. « On croit généralement que le simple fait d'augmenter la taille de ces modèles, en matière de volume de données et de puissance de calcul, pourrait conduire à l'AGI. Nous contestons ce point de vue », écrit l'équipe. Comme les chercheurs de Meta, l'équipe de Huawei affirme qu'il s'agit d'une étape fondamentale pour atteindre l'AGI.
LeCun estime qu'un enfant de quatre ans a vu 50 fois plus de données que les plus grands spécialistes du LLM. « La plupart des connaissances humaines ne sont en fait pas du langage, de sorte que ces systèmes ne pourront jamais atteindre une intelligence de niveau humain, à moins de modifier l'architecture », affirme LeCun. Naturellement, il propose une autre architecture : "une IA guidée par les objectifs". Les modèles d'IA axés sur les objectifs sont construits pour remplir des objectifs spécifiques fixés par les humains. Plutôt que d'être nourris de texte pur, ils apprennent à connaître le monde physique grâce à des capteurs.
Leur formation sera également basée sur des données vidéo. Selon LeCun, le résultat est un "modèle du monde" qui montre l'impact des actions. Tous les changements potentiels sont ensuite mis à jour dans la mémoire du système. Quelle sera la différence, par exemple, si une chaise est poussée vers la gauche ou vers la droite d'une pièce ? En apprenant par l'expérience, les états finaux commencent à devenir prévisibles. Par conséquent, les machines peuvent planifier les étapes nécessaires à l'accomplissement de diverses tâches. LeCun est confiant quant aux résultats que pourrait produire cette nouvelle approche de l'IA.
« Les machines finiront par surpasser l'intelligence humaine, mais cela prendra du temps. Ce n'est pas pour demain, et certainement pas pour l'année prochaine, comme l'a dit notre ami Elon », a déclaré LeCun. Le responsable de l'IA chez Meta s'est montré particulièrement discret et sceptique face aux prédictions sur l'AGI. LeCun ne propose pas un calendrier sur l'avènement de l'AGI, mais invite les acteurs de l'industrie à adopter une nouvelle approche dans la quête de l'AGI et réfute certaines prédictions qu'il juge trop optimistes et parfois éloignées de la réalité. Bien sûr, ses idées ne font pas l'unanimité dans la communauté.
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Que pensez-vous des critiques de Yann LeCun sur les prédictions d'Elon Musk ?
:fleche: Que pensez-vous des propos de LeCun selon lesquels "l'intelligence humaine n'est pas générale" ?
:fleche: Quid de l'approche qu'il propose pour atteindre une IA de niveau humain : une IA guidée par les objectifs ?
Voir aussi
:fleche: Selon un groupe de chercheurs en IA, les LLM actuels ne mèneront pas à l'AGI, mais les robots dotés d'une IA qui se développent dans le monde 3D pourraient le faire
:fleche: Des PDG parient jusqu'à 10 millions de dollars contre la récente prédiction d'Elon Musk sur l'IA, Elon Musk prédit que l'IA surpassera l'intelligence humaine d'ici la fin de l'année 2025
:fleche: Le PDG de Nvidia, Jensen Huang, affirme que les jeux entièrement générés par l'IA verront le jour d'ici 5 à 10 ans, ce qui suggère que l'IA pourrait remplacer les développeurs de jeux à l'avenir
Selon Demis Hassabis, si on atteint l'AGI, on pourrait entrer dans une "nouvelle ère" pour l'humanité
Si l'humanité parvient à franchir le goulot d'étranglement que constitue la sécurité de l'AGI, on pourrait entrer dans une nouvelle ère d'épanouissement maximal de l'humanité, selon Demis Hassabis.
Selon Demis Hassabis, il est possible de construire l'intelligence artificielle générale (AGI) de manière sûre. Si on atteint l'AGI, on pourrait entrer dans une "nouvelle ère" pour l'humanité.
Demis Hassabis est un informaticien, chercheur en intelligence artificielle et entrepreneur britannique. Au début de sa carrière, il a été programmeur et concepteur d'IA de jeux vidéo et joueur expert de jeux de société. Il est directeur général et cofondateur de DeepMind et d'Isomorphic Labs et conseiller du gouvernement britannique en matière d'intelligence artificielle.
Récemment, il a déclaré que "si l'humanité parvient à franchir le goulot d'étranglement que constitue la sécurité de l'AGI, nous pourrions entrer dans une nouvelle ère d'abondance radicale, de guérison de toutes les maladies, de diffusion de la conscience dans les étoiles et d'épanouissement maximal de l'humanité."
Citation:
À mesure que nous nous rapprochons de l'AGI, je pense qu'en tant que société, nous devons commencer à réfléchir aux types d'architectures qui seront construites. Je suis donc très optimiste. Bien sûr, c'est pour cela que j'ai passé toute ma vie à travailler sur l'IA et à œuvrer pour l'AGI.
Mais je pense qu'il existe de nombreuses façons de construire l'architecture de manière sûre, robuste, fiable et compréhensible. Et je pense qu'il y aura très certainement des manières de construire des architectures qui ne seront pas sûres ou risquées d'une manière ou d'une autre. Je vois donc une sorte de goulot d'étranglement que l'humanité doit franchir et qui consiste à construire des architectures sûres pour les premiers types de systèmes AGI.
Ensuite, nous pourrons assister à une floraison de nombreux types de systèmes différents qui sont peut-être détachés de ces architectures sûres et qui, idéalement, ont des garanties mathématiques ou, au moins, des garanties pratiques sur ce qu'ils font. Si nous y parvenons, je pense que nous pourrions entrer dans une nouvelle ère incroyable d'abondance radicale, de guérison de toutes les maladies, de propagation de la conscience jusqu'aux étoiles, d'épanouissement maximal de l'humanité.
Et vous ?
:fleche: Pensez-vous que ces déclarations sont crédibles ou pertinentes ?
:fleche: Quel est votre avis sur le sujet ?
Voir aussi :
:fleche: « L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique qui affirme que ce mensonge est raconté pour des raisons financières et politiques
:fleche: Le PDG de Google DeepMind affirme que l'entreprise consacrera plus de 100 milliards de dollars au développement l'IA, et dispose d'un supercalculateur d'IA plus puissant que ceux de ses rivaux
:fleche: « L'atteinte d'une forme d'intelligence artificielle de niveau humain (AGI) est possible dans une décennie », d'après le PDG de Google Deepmind, pour le développement responsable des systèmes d'IA
Sam Altman : « je me fiche de savoir si nous dépensons 50 milliards de dollars par an pour construire l'AGI »
Sam Altman : « je me fiche de savoir si nous dépensons 50 milliards de dollars par an, nous construisons l'AGI et cela en vaudra la peine »
ce montant dépasse largement le PIB de certains pays
Sam Altman, PDG d'OpenAI, affirme qu'il ne se soucie pas du tout des sommes colossales dépensées par son entreprise pour développer des modèles d'IA plus avancés. Il a expliqué que le but est de construire l'intelligence artificielle générale (AGI) et que la fin justifie les moyens. Par conséquent, l'homme d'affaires affirme qu'il se fiche de savoir si la construction de l'AGI va saigner jusqu'à 50 milliards de dollars par an. Il a également déclaré que GPT-4 est la technologie la plus stupide que le monde aura à utiliser. Ce qui laisse suggérer que GPT-5 ne ressemblera en rien aux modèles d'IA précédents d'OpenAI et devrait être une évolution majeure de l'IA générative.
« Que nous brûlions 500 millions de d dollars, 5 milliards de dollars ou 50 milliards de dollars par an, cela m'est égal. Je m'en fiche vraiment tant que nous pouvons rester sur une trajectoire où nous créons finalement beaucoup plus de valeur pour la société que cela et tant que nous pouvons trouver un moyen de payer les factures. Nous sommes en train de créer l'AGI, et cela va coûter cher, mais cela en vaut vraiment la peine », a déclaré Altman lors d'une récente apparition dans l'émission Stanford eCorner. Cela montre à quel point Altman est prêt à brûler des milliards en courant après une technologie encore hypothétique.
L'AGI est considérée comme l'objectif final de la recherche sur l'IA, le Saint Graal pour les entreprises d'IA. Il s'agit d'une IA dite "forte" qui devrait être capable de penser au même titre que les humains et de s'attaquer n'importe quelle tâche. L'industrie s'attend à ce que l'AGI soit capable d'effectuer ou d'apprendre pratiquement n'importe quelle tâche cognitive propre aux humains ou autres animaux. Mais bien que l'IA se soit considérablement développée à ce jour, ses capacités restent extrêmement limitées et elle est encore loin d'atteindre l'AGI. Mais encore, il n'existe aucune définition concrète ni consensuelle de l'AGI.
Ce qui en fait une technologie hypothétique à laquelle chaque personne ou chaque entreprise propose sa propre définition. Malgré cela, l'AGI est l'objet de toutes les convoitises depuis quelques années et attire des dizaines de milliards d'investissements. Microsoft a d'abord injecté un premier milliard dans OpenAI en 2019 dans le cadre d'un partenariat "ambigu" et a considérablement augmenté sa mise l'année dernière. Le montant du nouvel investissement de Microsoft n'est pas révélé, mais certaines sources ont rapporté que la firme de Redmond a plus que décuplé sa mise initiale, renforçant ainsi son partenariat avec OpenAI.
Les propos d'Altman ont suscité des réactions mitigées, certains critiques défendant l'idée et d'autres affirmant que l'AGI va saigner des dizaines de milliards et qu'en fin de compte, cette quête n'amènera nulle part. D'autres ne comprennent tout simplement pas pourquoi les investisseurs seraient prêts à dépenser de telles sommes d'argent dans la course à l'AGI alors que l'humanité est confrontée à des défis plus urgents. « Ce n'est pas son propre argent, alors il n'a aucune raison de s'en soucier. Par contre, il doit s'inquiéter des problèmes de consommation d'énergie élevée de l'IA et de la pollution qui en découle », note un critique.
Altman a fait savoir que lorsqu'il a commencé à travailler avec OpenAI, il n'avait pas réalisé qu'ils auraient besoin d'autant d'argent pour le calcul. « Nous ne savions pas que nous allions avoir cette belle activité », a-t-il déclaré, ajoutant que l'objectif de départ était simplement de faire avancer la recherche sur l'IA. Les critiques n'ont pas manqué de lui faire remarquer que le montant de 50 milliards de dollars surpasse largement le PIB de certains pays. Plus tôt cette année, il a été rapporté qu'Altman cherchait des investisseurs pour lever jusqu'à 7 000 milliards de dollars pour remodeler le business des puces destinées à l'IA.
Cependant, le PDG de Nvidia, Jensen Huang, pense que "ce rêve est complètement loufoque". Il estime que cet argent permettrait d'acheter toutes les entreprises importantes de fabrication de puces, mais que le développement de l'IA ne se limite pas à accumuler de la puissance de calcul. Il pense que le développement de l'IA ne coûterait pas autant que l'argent qu'Altman cherche à réunir. Pour mettre ce chiffre en perspective, cela représente près de 14 fois le revenu total de l'ensemble du marché des semiconducteurs l'année dernière. Mais il convient de noter qu'il s'agit d'une rumeur et qu'Altman ne l'a pas encore commenté.
Interrogé sur ChatGPT, Altman a répondu que c'était embarrassant. « GPT-4 est le modèle le plus stupide que chacun d'entre vous aura à utiliser », a-t-il ajouté, précisant qu'il est important de livrer tôt et souvent et que l'entreprise croit au déploiement itératif. Plus précisément, il pense qu'il existe des risques dans le fait de livrer une technologie en cours de développement, mais que cela est nécessaire pour convaincre le grand public de son utilité. « Si nous construisons l'AGI au sous-sol, le monde marchera avec les yeux béatement bandés », a-t-il ajouté, précisant que cela ne ferait pas d'OpenAI un bon voisin. Altman a expliqué :
Citation:
Envoyé par Sam Altman
Je pense donc qu'il est important, compte tenu de ce que nous croyons qu'il va se passer, d'exprimer notre point de vue sur ce que nous croyons qu'il va se passer. Mais plus que cela, la façon de procéder est de mettre le produit entre les mains des gens et de laisser la société "coévoluer" avec la technologie. Laissons la société nous dire ce qu'elle attend collectivement et individuellement de la technologie. Comment la produire de manière à ce qu'elle soit utile...
Là où le modèle fonctionne très bien, où il ne fonctionne pas très bien. Donner à nos dirigeants et à nos institutions le temps de réagir. Donner aux gens le temps de comprendre comment l'intégrer dans leur vie, d'apprendre à utiliser l'outil. Je suis sûr que certains d'entre vous trichent sur leurs devoirs avec cet outil, mais certains d'entre vous font probablement des choses très étonnantes et merveilleuses avec lui aussi.
Et au fur et à mesure des générations, je pense que cela va s'étendre et cela signifie que nous expédions des produits imparfaits, mais nous avons une boucle de rétroaction très serrée et nous apprenons et nous nous améliorons. Cela craint un peu de livrer un produit dont on est gêné, mais c'est bien mieux que l'autre solution.
Et dans ce cas en particulier, où je pense que nous devons vraiment à la société un déploiement itératif, une chose que nous avons apprise est que l'IA et la surprise ne vont pas bien ensemble. Les gens ne veulent pas être surpris. Les gens veulent un déploiement progressif et la possibilité d'influencer ces systèmes. C'est ainsi que nous allons procéder...
Et il pourrait tout à fait y avoir des choses à l'avenir qui changeraient et qui nous feraient penser que le déploiement itératif n'est pas une si bonne stratégie. Mais c'est la meilleure approche que nous ayons actuellement. Et je pense que nous avons beaucoup gagné en faisant cela. Et, vous savez, j'espère que le monde entier a aussi gagné quelque chose.
Altman a également ajouté que GPT-5 sera beaucoup plus intelligent que GPT-4 et que GPT-6 sera plus intelligent que le GPT-5. « Nous sommes loin d'avoir atteint le sommet de cette courbe... et elle va toujours s'améliorer », a-t-il ajouté. Lors du Sommet mondial des gouvernements (WGS) à Dubaï en février, Altman a déclaré que "GPT-5 sera plus intelligent, plus rapide, plus polyvalent et meilleur dans toutes les tâches que GPT-4". Plus récemment, il a assuré que GPT-5 fera un bond en avant en matière de capacité de raisonnement. En attendant, le modèle d'IA Claude 3 d'Anthropic est le nouveau leader du marché.
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Que pensez-vous du montant qu'Altman se dit prêt à brûler par an dans la course à l'AGI ?
:fleche: Pourquoi l'AGI suscite-t-il autant de convoitises ? Cette technologie sera-t-elle un jour une réalité ?
:fleche: Pourquoi le secteur de l'IA attire-t-elle aujourd'hui autant d'investissements ?
Voir aussi
:fleche: L'IA a besoin d'un corps pour passer à l'étape suivante de l'IA générale (AGI), un corps est le seul moyen pour elle d'apprendre le monde par l'interaction, d'après les chercheurs d'Huawei
:fleche: Le PDG d'OpenAI, Sam Altman, affirme que l'IA de niveau humain est imminente, mais qu'elle ne changera pas le monde autant que nous le pensons et que les craintes autour de l'AGI sont exagérées
:fleche: Le PDG de Nvidia estime que le rêve de Sam Altman visant à lever 7 000 milliards de dollars pour fabriquer ses propres puces d'IA est très éloigné de la réalité, le projet suscite le scepticisme