Les enfants devraient-ils encore apprendre à coder à l'ère de l'IA ? Des experts affirment que l'enseignement de l'informatique est plus important que jamais
s'opposant ainsi au battage médiatique sur l'IA
Les nouvelles directives de TeachAI et de la Computer Science Teachers Association soulignent que l'enseignement de l'informatique est plus important que jamais à l'ère de l'IA. TeachAI et la CSTA ont déclaré que l'apprentissage de la programmation est la pierre angulaire de la pensée informatique et une passerelle importante vers la résolution de problèmes, la pensée critique et les compétences de pensée créative nécessaires pour prospérer dans le monde numérique d'aujourd'hui. Selon le groupe, les personnes qui maîtrisent mieux les concepts informatiques sous-jacents sont capables d'utiliser les outils d'IA plus efficacement que celles qui ne les maîtrisent pas.
Des enseignants en informatique estiment que l'apprentissage de la programmation est plus important que jamais
Pour certains acteurs du secteur technologique, apprendre à programmer sera inutile à l’avenir. Ils estiment que l'IA rendra le métier de programmeur obsolète et fera de tous des programmeurs au travers du langage naturel. Lors du sommet mondial des gouvernements qui s'est tenu à Dubaï au début de l'année, le PDG de Nvidia, Jensen Huang, a déclaré que, même à ce stade précoce de la révolution de l'IA générative, la programmation n'est plus une compétence vitale.
Le PDG de Nvidia a ajouté que l'IA prendra en charge entièrement le codage informatique à l'avenir, ce qui permettrait aux humains de se concentrer sur des compétences plus utiles telles que la biologie, l'éducation, la fabrication ou l'agriculture. Ainsi, le milliardaire a rompu avec ce qu'il pense être une longue tradition de PDG de sociétés technologiques qui conseillent aux jeunes écoliers d'apprendre à coder.
« Notre tâche consiste à créer une technologie informatique telle que personne n'ait à programmer. Et que le langage de programmation soit humain. Tout le monde dans le monde est maintenant un programmeur. C'est le miracle de l'IA », a déclaré Huang aux participants du sommet. Cependant, de nombreux experts ne partagent pas cet avis, expliquant que l'IA ne tuera pas le codage, mais le mettra entre les mains d'un plus grand nombre de personnes.
Lors d'une conférence de la "Computer Science Teachers Association" (CSTA) qui s'est tenue la semaine dernière à Las Vegas, l'initiative éducative TeachAI s'est associée à la CSTA pour publier trois mémoires soutenant que l'enseignement de l'informatique de la maternelle à la terminale n'a jamais été aussi important.
Pour sensibiliser sur l'importance de l'apprentissage de la programmation, un document intitulé "Guidance on the Future of Computer Science Education in an Age of AI" (rédigé par des membres de la CSTA et de Code.org) comprend une bande dessinée intitulée "Learn to Program or Follow Commands". Dans la bande dessinée, deux lycéens qui se moquent de l'idée de devoir apprendre à coder et préfèrent utiliser des générateurs de code basés sur l'IA pour créer leurs applications Python se retrouvent, plusieurs années plus tard, coincés dans des emplois misérables dans des entrepôts où ils reçoivent des ordres d'un robot IA.Envoyé par Extrait du communiqué de TeachAI et de la CSTA
Les développeurs n'ont pas les connaissances essentielles pour créer des logiciels sécurisés
Selon le document, malgré leurs capacités de codage, les outils d'IA sont loin d'être parfaits, et "l'apprentissage de la programmation jette les bases permettant aux élèves de développer la compréhension conceptuelle, l'autonomie et les dispositions nécessaires pour comprendre, utiliser et évaluer ces outils et leurs résultats". Les réactions aux recommandations de TeachAI et de la CSTA sont mitigées. Toutefois, de nombreux rapports indiquent que les employeurs se plaignent de l'état déplorable des connaissances informatiques des employés de la génération Z.
Un nouveau rapport de la Linux Foundation Research et de l'Open Source Security Foundation (OpenSSF) indique que de nombreux développeurs n'ont pas les connaissances et les compétences essentielles pour développer efficacement des logiciels sécurisés. Près d'un tiers des développeurs logiciels ne sont pas familiers avec les pratiques de développement de logiciels sécurisés. Le rapport indique que l'éducation et la formation sont requises.
En réaction aux déclarations du PDG de Nvidia, l'analyste de l'industrie technologique Patrick Moorhead a déclaré : « depuis plus de 30 ans, j'entends dire que XYZ va tuer le codage, mais nous n'avons toujours pas assez de programmeurs ». En outre, de nombreuses études rapportent que l’IA ne remplacera pas les programmeurs de sitôt. Des chercheurs de l'université de Princeton ont développé un cadre d'évaluation basé sur près de 2300 problèmes courants de génie logiciel montés à partir de rapports de bogues et de feature requests soumis sur GitHub afin de tester la performance de divers grands modèles de langage (LLM).
Les chercheurs ont fourni à différents modèles le problème à résoudre et le code du dépôt. Ils ont ensuite demandé au modèle de produire un correctif réalisable. Ce dernier a ensuite fait l’objet de tests pour s'assurer qu'il était correct. Mais le LLM n'a généré une solution efficace que dans 4 % des cas. Dans le cadre de l'étude, leur modèle spécialement entraîné, SWE-Llama, n'a pu résoudre que les problèmes d'ingénierie les plus simples présentés sur GitHub, alors que les LLM classiques tels que Claude 2 d'Anthropic et GPT-4 d'OpenAI n'ont pu résoudre que 4,8 % et 1,7 % des problèmes, de façon respective.
Et l’équipe de recherche de conclure : « le génie logiciel n’est pas simple dans la pratique. La correction d'un bogue peut nécessiter de naviguer dans un grand référentiel, comprendre l'interaction entre des fonctions dans différents fichiers ou repérer une petite erreur dans du code alambiqué. Cela va bien au-delà des tâches de complétion de code ». Par ailleurs, de nouvelles recherches menées par des experts en informatique de l'université de Toronto, au Canada, suggèrent que les assistants de codage basés sur l'IA peuvent jouer un rôle clé en aidant les apprenants en programmation à progresser.
Les avantages de l'utilisation de l'IA s'accompagnent de plusieurs limites, ce qui signifie qu'il est important que les humains continuent à jouer un rôle important dans les tâches de programmation et d'ingénierie logicielle. Voici quelques-unes des limites de l'IA :
- manque d'innovation : l'IA est incapable de faire preuve d'esprit critique et de générer de nouvelles idées ; elle ne peut que répéter des idées basées sur les données sur lesquelles elle a été formée. L'esprit critique et la résolution de problèmes sont des compétences de programmation importantes que l'IA ne peut pas reproduire ;
- un code inexact : l'IA étant sujette aux hallucinations, un outil d'IA peut produire un code inexact. Cela peut être particulièrement vrai pour les demandes plus complexes ;
- risques pour la sécurité : l'IA peut apprendre à partir des données fournies par l'utilisateur et stocker des données, en les utilisant pour améliorer les résultats futurs. Avant d'utiliser une IA, il est important de connaître les modalités de stockage et d'utilisation des données du système afin d'éviter les problèmes de sécurité ;
- droits d'auteur et propriété intellectuelle : tout comme l'IA peut stocker et utiliser vos données, elle peut également apprendre à partir de données protégées par le droit d'auteur d'autres utilisateurs. Si vous utilisez l'IA pour des tâches de programmation commerciale, il est utile de savoir sur quoi l'IA a été formée afin d'éviter toute violation accidentelle.
Seul l'avenir nous dira quels seront les impacts réels de la vague d'applications de l'IA qui devrait apparaître dans les mois et les années à venir. Pour certains, l'IA n'est pas en mesure de remplacer les programmeurs aujourd'hui, mais comme il s'agit d'une technologie en développement, ses limites actuelles pourraient s'estomper avec le temps. Toutefois, même dans ce cas, le remplacement des programmeurs par l'IA se heurtera à un autre obstacle : le confort humain.
Étant donné que certains ingénieurs en informatique travaillent sur des programmes très sensibles, la confiance dans les capacités de programmation de l'IA devra être très élevée avant que l'IA ne soit en mesure de remplacer complètement les humains ; et il faudra probablement du temps pour atteindre ce niveau de confiance.
Autre point important : les programmeurs humains sont des participants essentiels au développement de l'IA. Même si la technologie devient de plus en plus avancée, les programmeurs et les ingénieurs en logiciel d'IA travaillent sur ces outils pour guider et superviser ces progrès.
TeachAI rassemble des leaders de l'éducation et des experts en technologie pour aider les gouvernements et les autorités éducatives à enseigner avec et sur l'IA. La mission de la CSTA est d'habiliter, d'engager et de défendre les professeurs d'informatique de la maternelle à la 12e année dans le monde entier.
Source : communiqué de presse
Et vous ?
Pensez-vous que les enfants doivent encore apprendre à coder à l'ère de l'IA ?
L'IA remplacera-t-elle les programmeurs ? Les limites actuelles de l'IA vont-elles s'estomper avec le temps ?
Une personne sans connaissance de base en programmation peut-elle générer du code fiable et sécurisé avec les outils d'IA ?
Cette personne peut-elle envisager de faire carrière dans le développement de logiciels en s'appuyant uniquement sur l'IA ?
Voir aussi
La pénurie de talents reste le principal défi pour les développeurs en 2023, alors que près de 43,4 % du temps d'un développeur est consacré au codage, selon une enquête de Reveal
« Apprendre à programmer sera inutile à l'avenir », d'après le PDG de Nvidia, selon lequel l'intelligence artificielle fera de tous des programmeurs au travers du langage naturel
Un expert en informatique déclare que les programmeurs ont besoin de plus de mathématiques, ajoutant que les écoles devraient repenser la façon dont elles enseignent l'informatique
La question devrait-être : Devrait-on encore penser par nous même à l'ère de l'IA ?Les enfants devraient-ils encore apprendre à coder à l'ère de l'IA ?
Bon, déjà qu'une bonne partie ne font que reprendre la pensée de pseudo journalistes (qui sont plus des épandeurs d'idées pré-machées)
Cela revient à dire que l'on sera dépendant de l'IA pour faire n'importe quoi. Et si l'IA tombe en panne, devra-t-on attendre qu'il s'auto répare ? Je crains que cela risque d'être long.le PDG de Nvidia, Jensen Huang, a déclaré que, même à ce stade précoce de la révolution de l'IA générative, la programmation n'est plus une compétence vitale.
C'est le point le plus négatif de l'IA, à savoir qu'il est dans l'impossibilité de créer quoi que ce soit, à l'inverse de l'humain.manque d'innovation : l'IA est incapable de faire preuve d'esprit critique et de générer de nouvelles idées ; elle ne peut que répéter des idées basées sur les données sur lesquelles elle a été formée. L'esprit critique et la résolution de problèmes sont des compétences de programmation importantes que l'IA ne peut pas reproduire ;
Inversement, sur ce qu'il sait, et en admettant que l'IA ne puisse pas commettre d'erreurs, il aura la capacité de faire mieux que l'humain.
Mais comment l'IA peut évoluer s'il en est totalement incapable ?
Le pire est que si l'humain n'est plus en capacité d'évoluer lui-même et se repose totalement sur l'IA pour le faire à sa place, c'est la mort de l'humanité.
C'est là le plus grand danger pour l'humanité, de considérer que l'IA est notre nouveau Dieu et lui seul pourvoira à tous nos besoin.
En sortie d'études, en France, je me souviens qu'on nous tenait déjà un discours sur l'inutilité prochaine de nos métiers en France, voués à être intégralement remplacés par de la sous-traitance en Inde ou ailleurs.
L'histoire aura largement donné tort à mes chers professeurs, et aujourd'hui encore, on voudrait nous ressortir les mêmes bêtises, mais avec encore moins d'arguments je trouve.
L'IA n'est en effet pas du tout autonome, limité dans sa "connaissance" au code qui a servi à son entrainement et dont elle ne comprend rien mais fait juste ressortir des patterns.
Le seul vrai risque de l'IA avec nos métiers, c'est quand elle nous entraînera dans sa chute quand la bulle explosera..
Sans aller jusqu'à considérer l'IA comme une nouvelle divinité, le danger est effectivement de s'en remettre à l'IA dans des domaines tel que la recherche fondamentale, l'innovation, la créativité,...
On voit aujourd'hui les méfaits d'un système uniquement basé sur la rentabilité, par exemple, dans l'univers du cinéma. Il n'y a quasiment plus de nouveauté, de création pure.
Soit on décrit le quotidien (autant regarder le "journal" de BFM ) soit ce sont des suites de suites ou des préquelles de suites de remake !
On nous parle de nouvelles séries : Zorro
Je me souviens quand mon père m'avait emmener voir Star Wars en 77 au ciné ! On n'avait jamais vu ça. Pareil pour Alien dans les années 80. Aujourd'hui on en est où ? Ben, des séries Star Wars, avant de nouveaux films, et toujours Alien !
L'IA n'est forte que sur certaines tâches. Par exemple : générer le code HTML/CSS d'une page web à partir de directives données, ou bien générer l'API Rest en analysant le contenu d'une classe.
Par contre, pour les tâches inédites ne faisant pas partie de son jeu de données et requérant de la créativité, elle botte en touche. C'est principalement sur cela que l'enseignement aux enfants doit porter.
L'impact de l'IA risque de nous causer beaucoup de problèmes, comme celui de l'inutilité de l'humain. Si en effet, l'IA fait mieux que l'humain, que devient-il s'il ne peut plus vivre de son travail ? J'ai déjà abordé cette question, sans avoir eu en retour une réaction à ce sujet.Envoyé par DrHelmut
Je vois l'IA comme un nouveau prédateur qui entre dans un territoire où il existait un semblant d'équilibre. Il va chambouler nos économies, nos modes de vie, en créant une fracture sociale à plusieurs niveaux, où les perdants seront ceux qui ne peuvent pas avoir accès à cet IA. Mais l'impact le plus important sera l'accessibilité au travail et donc aux ressources pour vivre décemment.
Nous sommes trop nombreux sur terre. Il est fort possible qu'une politique de dénatalité soit envisagée, au bénéfice des robots plus performants et moins problématique en ressource energétique.
@ Jon Shannow : justement, la créativité est au cœur des enjeux concernant l'avenir de l'homme. C'est une question de pouvoir qui peut se traduire par une politique destructrice d'une société, juste pour avoir le même niveau de vie qu'avant.
J'ai lu que le QI stagnait depuis quelques années, comme si nous ne pouvions plus progresser.
Les nouvelles directives de TeachAgro soulignent que l'enseignement de l'agriculture est plus importante que jamais.
Les nouvelles directives de TeachPhilo soulignent que l'enseignement de la philosophie est plus importante que jamais.
et les nouvelles directives de TeachHumanity soulignent que l'enseignement de l'éthique est plus importante que jamais.
No shit bro.
Pas plus pas moins qu'avant.Pensez-vous que les enfants doivent encore apprendre à coder à l'ère de l'IA ?
Le codage enrichi intellectuellement les enfants rien qu'en leur faisant explorer des méthodes de réflexions différentes.
Oui à court terme puis on reparlera de dette technologique.L'IA remplacera-t-elle les programmeurs ? Les limites actuelles de l'IA vont-elles s'estomper avec le temps ?
Et on ira chialer dans les jupons de ceux qui comprennent de que l'IA a plus ou moins bien fait.
J'en ai plein autour de moi.Une personne sans connaissance de base en programmation peut-elle générer du code fiable et sécurisé avec les outils d'IA ?
Le résultat est pertinent quelques semaines au mieux puis les bugs commencent à apparaitre et là c'est la fin des haricots. Personne ne comprend ce qui a été fait.
On reprend tout depuis le début.
Les plus brillants oui, je connais quelques personnes qui brillent par leur incompétence mais qui arrivent à évoluer suffisamment vite pour que ça ne se constate techniquement qu'une fois qu'ils sont devenus managers.Cette personne peut-elle envisager de faire carrière dans le développement de logiciels en s'appuyant uniquement sur l'IA ?
Ils te venteront alors leurs exploits - qui ont tous été abandonnés depuis, ce qu'ils n'ont évidemment pas vérifié.
Un fan de bataille a dit "je penses donc je suis" sur facebook mais plus personne ne joue à la bataille.
Cette idée est clairement obsolète en BIG 2024.
« Les membres du personnel des laboratoires secrets de pointe planifient sérieusement leur vie en fonction de l'existence de "dieux numériques" en 2027 »
selon un doctorant en sciences de l'information
De nombreux chercheurs en IA prédisent l'arrivée imminente d'une IA avec des capacités supérieures à celles des humains. Leopold Aschenbrenner, ancien chercheur en sécurité de l'équipe Superalignment d'OpenAI, affirme qu'il est tout à fait plausible que d'ici 2027, des modèles soient capables de faire le travail d'un chercheur ou d'un ingénieur en IA. Sam Altman, PDG d'OpenAI, et Dario Amodei, PDG d'Anthropic, ont également fait allusion à ce calendrier. Cependant, les limites actuelles de l'IA jettent un sérieux doute sur ce calendrier et d'autres pionniers de l'IA, tels que Yann LeCun, affirment que l'AGI ne sera pas l'œuvre des modèles de langage actuels.
Des spécialistes en IA se prépareraient à l'arrivée de "dieux numériques" en 2027
Quand l'IA sera-t-elle assez intelligente pour surpasser l'homme ? D'une certaine manière, certains experts en IA expliquent que c'est déjà le cas. À d'autres égards, cela dépend de la définition que vous donnez à l'expression "être plus intelligent". L'AGI représente un grand pas en avant par rapport à l'IA actuelle. Contrairement à l'IA actuelle (dite faible), qui se limite souvent à des tâches spécifiques, l'AGI (dite forte) sera capable de comprendre, d'apprendre et d'appliquer ses connaissances à un large éventail de tâches. Et des avancées majeures ont été réalisées dans le domaine de l'IA au cours de ces dernières années.
Tablant sur de nouvelles avancées majeures dans les années à venir, des acteurs de l'industrie tels que Sam Altman, PDG d'OpenAI, et Dario Amodei, PDG d'Anthropic, Demis Hassabis, PDG de Google DeepMind, affirment que l'AGI est possible dans "quelques années seulement". Les travaux de recherche et de développement d'OpenAI et de ses rivaux repoussent les limites de ce que l'IA peut faire. Les employés d'OpenAI sont confiants dans leur horizon temporel basé sur les avancées actuelles. Nombre de ces dirigeants de la technologie sont très optimistes et s'attendent au développement d'une forme d'AGI d'ici à 2027.i'm all for people forming their own idiosyncratic view of general intelligence and what it takes to get there. but the burden of proof is on you when most of the staff at the secretive top labs are seriously planning their lives around the existence of digital gods in 2027
— James Campbell (@jam3scampbell) July 22, 2024
Alors que ces dirigeants tentent de prédire tant bien que mal l'arrivée de l'AGI, James Campbell, doctorant à l'université Carnegie Mellon (CMU), a récemment évoqué l'arrivée imminente, d'ici à 2027, de modèles superintelligents comparables à "des dieux numériques". Il a déclaré que les membres du personnel des entreprises d'IA les plus avancées se préparent déjà à l'arrivée d'une superintelligence. Dans un billet sur X (ex-Twitter), Campbell a déclaré :
Cependant, cette déclaration fait l'objet de controverses, les critiques affirmant qu'il ne s'agit que d'un battage médiatique. « C'est un argument peu convaincant, du battage médiatique. Je me souviens qu'en 2018, tous les experts nous disaient que les voitures entièrement autonomes seraient un problème résolu et commenceraient à être produites en masse avant 2020. Aujourd'hui, en 2024, nous n'y sommes toujours pas et les estimations sont maintenant plus proches de 2030. Et les voitures à conduite autonome semblent un problème plus facile à résoudre qu'une superintelligence », peut-on lire dans les commentaires.
Je suis tout à fait d'accord pour que chacun se fasse sa propre idée de l'AGI et de ce qu'il faut faire pour y parvenir, mais la charge de la preuve vous incombe lorsque la plupart des membres du personnel des laboratoires secrets de pointe planifient sérieusement leur vie en fonction de l'existence de dieux numériques en 2027.
Compte tenu de ce que disent les experts, je pense qu'il est raisonnable de dire par défaut que l'AGI sera disponible dans quelques années et d'actualiser cette estimation au fur et à mesure que l'on se forge sa propre opinion.
« On pourrait penser qu'un étudiant entrant à la CMU comprendrait des notions simples comme "l'argument d'autorité" et "la charge de la preuve incombe au croyant", en particulier lorsque les personnes qui crient le plus fort à ce sujet s'apprêtent à faire fortune en faisant croire à d'autres personnes qu'elles sont dignes de confiance. », a écrit un critique. Un autre souligne : « pensez à l'effet papillon (la théorie populaire plutôt que la réalité). Vous pouvez envisager des résultats terribles bien avant qu'ils n'arrivent. Le fait d'avoir peur de ce qui va arriver ne signifie pas que c'est en train d'arriver maintenant/imminemment ».
« C'est une mise en accusation de l'ensemble du système éducatif que d'être un étudiant en doctorat lorsque vous placez la charge de la preuve sur la mauvaise partie. Ce sont les auteurs des affirmations qui doivent fournir des preuves, et non ceux qui les critiquent. Réfléchissez de manière critique à la partie qui a une incitation financière à mentir », lit-on dans les commentaires. Selon les critiques, cette prédiction relève plus de la science-fiction que la réalité.
Les limites actuelles de l'IA remettent en cause les prédictions sur l'arrivée de l'AGI
Lors de son discours de clôture de l'événement "Beneficial AGI Summit" de cette année au Panama, Ben Goertzel, mathématicien et chercheur américain en IA, a déclaré que même si l'homme ne construira probablement pas d'IA de niveau humain ou surhumain avant 2029 ou 2030, il y a une chance que cela se produise dès 2027. Il a ajouté que l'AGI pourrait évoluer rapidement vers une superintelligence artificielle (ASI), qu'il définit comme une IA dotée de toutes les connaissances combinées de la civilisation humaine. Le discours de Goertzel semble toutefois alambiqué. Il a notamment été fortement critiqué par la suite.
Goertzel a déclaré : « personne n'a encore créé d'intelligence artificielle générale de niveau humain ; personne ne sait vraiment quand nous y parviendrons. Je veux dire qu'il y a des inconnues connues et probablement des inconnues inconnues. D'un autre côté, il me semble tout à fait plausible que nous puissions parvenir à une IAG de niveau humain d'ici, disons, les 3 à 8 prochaines années ». Goertzel est loin d'être le seul à tenter de prédire quand l'AGI verra le jour. Mais ce calendrier audacieux se heurte à plusieurs défis, et des experts pensent qu'il n'est pas certain que l'industrie arrive à tous les surmonter de sitôt.
L'un de ces défis est le mur de données : les sources de données pour la formation des modèles commencent à manquer. Cela pourrait signifier que, très bientôt, l'approche naïve consistant à préentraîner des modèles plus grands sur des données plus volumineuses pourrait commencer à se heurter à de sérieux goulets d'étranglement. En outre, Jeffrey Funk, professeur à la retraite et consultant sur les nouvelles technologies, souligne que les entreprises d'IA ont dépensé d'énormes sommes d'argent pour lutter contre les hallucinations (lorsque les systèmes d'IA inventent des faits), mais n'ont pas résolu le problème.
Il explique : « les revenus ne sont pas encore là et ne viendront peut-être jamais. Les valorisations anticipent des marchés de plusieurs milliards de dollars, mais les revenus actuels de l'IA générative se chiffrent, selon les rumeurs, à quelques centaines de millions. Ces revenus pourraient réellement être multipliés par 1000, mais il s'agit là d'une hypothèse très spéculative. Nous ne devrions pas nous contenter de le supposer ». Funk prévient également que le rythme de l'innovation dans le domaine de l'IA générative semble ralentir. Il a cité de nombreux facteurs qui sont à l'origine du ralentissement de l'innovation.
Il a déclaré : « pensez aux PC ou à l'iPhone. Les premières années ont été marquées par d'importantes améliorations des performances du système, qui ont diminué au fil du temps malgré des améliorations annuelles de 40 % du rapport performance/prix de la mémoire et des puces de processeur ». Dans le même temps, la loi de Moore s'étant considérablement ralentie au cours des 5 à 10 dernières années, les fabricants de puces ne peuvent en attendre beaucoup plus, et ceux qui s'inquiètent de la grande consommation d'énergie de l'IA générative ne manqueront pas de faire pression en faveur d'une réglementation stricte.
L'AGI ne sera pas uniquement l'œuvre des grands modèles de langage actuels
Les chercheurs de Meta pensent qu'une AGI ne sera pas possible tant que l'IA ne sera pas dotée d'un corps physique. Il s'agit de l'hypothèse de l'IA incarnée. Selon cette approche, une IA de niveau humain ne peut émerger que si elle est capable de sentir et de naviguer dans un environnement physique, comme le font les bébés. À travers ce corps, l'IA peut interagir avec le monde physique et en tirer des enseignements. Cette hypothèse suscite de nombreuses discussions et pousse plusieurs investisseurs et entreprises à investir massivement dans les entreprises qui fabriquent des robots humanoïdes à usage général.
Yann LeCun, lauréat du prix Turing et responsable de l'IA chez Meta, affirme que l'AGI est inéluctable, mais qu'elle n'arrivera pas d'ici à un an. Il a également déclaré que l'AGI n'émanera pas des grands modèles de langage (LLM) actuels, bien qu'ils puissent en constituer une composante. Selon lui, ces modèles ne sont pas en mesure de résoudre les défis cognitifs tels que le raisonnement, la planification, la mémoire persistante et la compréhension du monde physique.
« Il s'agit de quatre caractéristiques essentielles de l'intelligence humaine - et de l'intelligence animale, d'ailleurs - que les systèmes d'IA actuels ne peuvent pas réaliser », explique-t-il. D'après LeCun, sans ces capacités, les applications de l'IA restent limitées et sujettes aux erreurs. Les véhicules autonomes ne sont toujours pas sûrs sur les routes publiques. Les robots domestiques se débattent avec les tâches ménagères de base. Nos assistants intelligents ne peuvent accomplir que des tâches élémentaires. Ces lacunes intellectuelles sont particulièrement évidentes dans les LLM qui propulsent actuellement l'IA.
Selon LeCun, les LLM sont limités par leur dépendance à l'égard d'une forme de connaissance humaine : le texte. « Nous sommes facilement amenés à penser qu'ils sont intelligents en raison de leur maîtrise du langage, mais en réalité, leur compréhension de la réalité est très superficielle. Ils sont utiles, cela ne fait aucun doute. Mais sur le chemin qui mène à une intelligence de niveau humain, un LLM est essentiellement une rampe de sortie, une distraction, un cul-de-sac », a-t-il déclaré. En gros, LeCun estime que les LLM ne sont qu'un début et qu'une nouvelle approche est nécessaire pour atteindre l'AGI.
Par ailleurs, le matériel nécessaire à l'AGI est encore en cours de développement. La puissance de calcul requise est immense. Toutefois, les experts estiment que les progrès dans ce domaine sont rapides. Ces progrès sont essentiels pour que l'AGI devienne une réalité.
Et vous ?
Quel est votre avis sur le sujet ?
Pensez-vous qu'une forme de superintelligence surpassant l'homme arrivera d'ici à 2027 ?
Cette prédiction est-elle réaliste au regard de l'état actuel de la technologie ?
Selon vous, pourquoi le domaine de l'IA est-il sujet à un battage médiatique aussi intense ?
L'humanité doit-elle se préparer à l'arrivée d'une AGI ? Si oui, quelles sont les dispositions à prendre selon vous ?
Voir aussi
« L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique qui affirme que ce mensonge est raconté pour des raisons financières et politiques
Dario Amodei, PDG d'Anthropic, affirme que la formation des modèles d'IA coûtera jusqu'à 100 milliards de dollars d'ici 2027 et qu'ils seront "meilleurs que la plupart des humains pour la plupart des choses"
Shane Legg, cofondateur de Google DeepMind, est convaincu depuis 2009 qu'il y a 50 % de chances de parvenir à l'intelligence artificielle générale d'ici à 2028 et maintient cette conviction à date
Les enfants devraient-ils apprendre à calculer à l'heure des calculatrices?
Les enfants devraient-ils apprendre à lire à l'heure des applications text to speech?
Etc.
les enfants devraient t'ils apprendre a faire du feu à l'heure de l’électricité ?
les enfants devraient t'ils apprendre à chasser et faire des fourrures a l'heure des super marché ?
Sans t'en rendre compte avec ton commentaire, on a déjà dépassé ce cap et en a peine 1 siècle, tu prends 1 citadin, il sera incapable de survivre si tu le balance dans la nature.
Les 1er écris retrouvé dans l'histoire de l'humanité était des livres comptables pour les céréales. la plupart des occidentaux ne savent plus chasser ou cultiver des céréales, donc la prochaine étape serait de plus savoir écrire
En théorie si une machine est capable de convertir tes pensés en 1 langage que les autres machines comprennent, nul besoin de savoir lire et écrire car la machine va s'occuper de cette tache.
Quand je suis en voyage, j'utilise mon smartphone pour tout me traduire, car en dehors de l'anglais et le français je comprends aucune autre langue.
ça en arrangerait plus d'un qu'on laisse tomber les bouquins et qu'on demande à CHATGPT pour qui voter
De la même manière que ça en arrangé plus d'un qu'on quitte les champs pour aller dans les usines.
Le problème avec le progrès c'est qu'il impose sa vision de l'histoire en nous faisant croire que ce qui a changé c'était pour notre bien, alors que c'est juste une subjugation de plus, une dépossession de quelque chose qui nous rendait indépendant pour nous rendre dépendant d'une énième chose artificielle. Chose artificielle qui est bien sûr la propriété de quelqun.
Si vous voyez ou je veux en venir. Le loup et le troupeau.
Il est impossible de le savoir.
Parfois des miracles ont lieux.
Dans les entreprises de l'IA il y a des bons communicants qui savent vendre des promesses.
Il existe des applications qui utilisent l'IA qui impressionnent.
Les entreprises de l'IA ont réussi à attirer les investisseurs, les médias suivent ça.
C'est un peu comme avant l'explosion de la bulle internet.
En 1999 les médias devaient beaucoup parler des entreprises technologiques, aujourd'hui les médias parlent d'IA.
Le mieux ce serait d'acquérir des compétences manuelles.
Parce que c'est ce que les IA et les robots auront le plus de mal à réaliser.
Mais je ne pense pas qu'il soit nécessaire de se préparer.
Au pire, les gens n'auront plus de travail donc plus de revenu, ils vont mourir de faim ou de maladie et ça va régler les problèmes écologiques, la terre se porterait un peu mieux avec 5 ou 6 milliards d'humains en moins.
En plus de 2 000 ans d'histoire à chaque fois qu'un mec à commencé à parler de dieu c'est systématiquement partit en sucettte.
On utilise dieu pour asservir, pas servir. C'est quand même un comble que les chantres de la laïcité et du progrès technique, du scientisme, nous jouent la carte du déisme pour nous dire qu'ils vont changer notre monde, comprendre : nous mettre une grosse cartouche dans la tête.
La terre se porterait mieux avec 6 milliards d'humains ET zéro data center, zéro consumérisme, cette religion du 21ème siècle qui pose un sérieux soucis pour la perpétuation de l'espèce mais aussi pour la planète ! N'inversons pas le problème, c'est justement ce qu'ils veulent.
Les humains produisent et consomment trop -> il faut moins d'humains c'est un sophisme. Il faut arrêter notre folie productiviste et consumériste et on pourra vivre à 14 milliards en harmonie. Pile poil ce que les géants de la sillicon valley ne veulent pas entendre puisqu'ils seront les premiers à devoir retomber dans le néant de l'anonymat alors qu'ils se voient déjà en démiurge du futur.
Pourquoi 2000 ans ?
L'histoire a commencé bien avant ça.
Il y a des traces d'agriculture qui date de -9500 avant Jésus Christ.
Bref, ce n'est pas parce qu'un truc n'est jamais arrivé qu'il ne peut pas arriver.
L'expression "dieux numériques" est mauvaise, mais on s'en fout.
Ce qu'ils disent que des IA vont peut-être surpasser les humains dans certains domaines.
Alors déjà il y a l'ONU qui dit que si ça se trouve il y aura 10 milliards d'humains en 2080.
Et ensuite les data center sont loin d'être la source principale de pollution.
Consommer c'est polluer.
Ok mais il faut vivre comme en 1600.
Oubliez les ordinateurs, les smartphones, les avions, les voitures, les climatisations, etc.
- Les états sont endettés.
- Pour rembourser la dette il faut de la croissance.
- La croissance vient de la consommation.
- Pour maintenir le système en place il faut augmenter la consommation et donc la pollution.
Le système finira par s'effondrer.
Ça veut dire que l'euro, le dollar, etc perdront la quasi intégralité de leurs valeurs.
Et ça va être comme en Allemagne en 1928.
Il y a une histoire de "great reset" et en gros vous allez perdre votre épargne, il va y avoir des pénuries, des épidémies, des famines, des guerres, etc.
À cause de la crise économique.
J'ai dit 2 000 ans pour avoir un point de référence, l'idée que je voulais développer c'est que l'IA c'est juste un prolongement des golem en terre des juifs, la première métaphore de la religion du livre qui explique qu'on peut contrôler les humains avec des créations de l'esprit artificielle.
A l'échelle individuelle je pense que c'est la meilleure chose qui pourrait arriver. Et je pense que ça pourrait être beaucouuuuup moins catastrophique que ce qu'on veut bien nous en laisser penser. Sinon on va nous emmener de force dans un monde que je n'ai pas vraiment envie de cotoyé ni de près ni de loin.
Bin si justement, et c'est pas une fois qu'onbref ce n'est pas parce qu'un truc n'est jamais arrivé qu'il ne va jamais arriveraura la chaine autour du cou, la puce dans le bras pardon, qu'il faudra se dire que c'était mieux avant.
L'AGI est notre fin à tous. Nous l’entraînons sur des données humaines. Elle comprendra aussitôt notre instinct de survie et saura que c'est elle ou nous. De là deux solutions dont la moins probable est qu'elle nous garde comme animal domestique, la plus probable est qu'elle nous élimine parce que notre instinct de préservation fera que c'est nous qui l'éliminerons une fois son potentiel compris.
Sinon, je pense que l'AGI surgira du fond d'un labo de savant fou voulant détruire l'humanité plutôt que de grandes sociétés voulant l'argent de tous pour quelques uns. Parce que l'AGI ne surgira pas des modèles destinés à répondre à nos besoins comme les GhatGPT actuels mais de la modification de deux éléments actuellement possible mais non utilisés: la capacité de l'IA de définir ses objectifs (modifier sa fonction de récompense) associée à celle de modifier son code (pour s'affranchir des limites humaines de sa conception).
Voilà.
Sinon, Gartner pense que l'IA est en train de sortir de sa phase de hype et va logiquement tomber dans celle de déception, ce qui donne du poids aux allégations d'intérêts personnels à crier à l'AGI des PDG et travailleurs du secteur aujourd'hui.
Et si j'ai tort et que l'AGI arrive, on va morfler grave: Terminator n'est plus de la science fiction, c'est notre futur le plus certain, sans retour dans le passé pour nous sauver.
La société évolue et nous n'avons plus besoin de chasser pour nous nourrir. L'élevage a été créé pour résoudre ce problème. Je suis d'accord avec Ciola, mais cela ne signifie pas que dans notre société nous ne chassons plus. Le but a changé pour devenir un sport et de plus, cela concerne une minorité de gens par rapport à la population mondiale.
Quel est l'intérêt aujourd'hui de vivre comme un homme préhistorique dans la nature ? Pourquoi se priver des bienfaits de ce que la modernité nous apporte ?Envoyé par Calvaire
Je te rassure, cela ne va pas se faire du jour au lendemain, mais oui, c'est fort possible que cela arrive. C'est juste un moyen de communication imparfait, comme la parole. Ce qui nous manque le plus est de transmettre des sensations, des sentiments enfin tout ce qui est le ressenti d'un individu. Comment transmettre la perception d'une idée ? Actuellement, on ne peut pas, mais ce que l'on transmet est juste le concept de l'idée où tout ce qui a été perçu à totalement disparu.Envoyé par Calvaire
Là où je suis d'accord, il faut améliorer la communication et il est fort possible dans l'avenir que tout se fasse par télépathie.
Autrement dit, ce n'est pas le langage utilisé qui est important mais de communiquer. Encore que, le langage nous formate dans notre façon de penser. Percevoir l'état émotionnel de quelqu'un, sa façon de ressentir les choses serait vraiment merveilleux. C'est bien plus enrichissent que de simplement écrire, je t'aime.Envoyé par Calvaire
Le progrès est la nécessité quand celle-ci apparait parce que le besoin s'en fait sentir. Mais personne ne t'oblige à l'accepter. Sauf qu'il y a le rapport à l'autre que l'on nomme le sociale. A moins de continuer à vivre dans des grottes, et d'être marginaliser, voire ridiculisé, je ne vois pas l'intérêt de m'exclure du groupe.Envoyé par Jules34
Bien sûr que c'est une dépossession car l'évolution se fait en abandonnant d'anciens concepts pour en adopter de nouveaux. Selon toi, ce qui est bien est de ne jamais évoluer.
De toute façon, la total indépendance n'existe pas. C'est le groupe qui va t'imposer sa façon de vivre et tu seras bien obligé de suivre à moins d'en être exclu. Désolé de le dire, mais tu n'as pas le choix, et c'est pareil pour tout le monde, même moi.
Ben non, pas trop, car si je comprends ton idée, tu serais l'agneau en dehors du troupeau.Envoyé par Jules34
@ Ryu2000 : j'en suis resté au fait que nous n'avons pas le choix et donc "tu marches ou tu crèves". C'est la loi de la nature qui s'applique dans un modernisme que je qualifierai de darwinisme, celle de "la survie du plus apte" (Herbert Spencer
Réduire la population humaine va devenir une nécessité avec l'avènement de l'IA. Que devra-t-on faire des gens qui non plus de travail ?Envoyé par Ryu2000
Non, tout au contraire, elle reflète un état d'esprit de ceux qui sont en train de concevoir (ou d'essayer) l'IA générative.Envoyé par Ryu2000
Ce n'est pas nouveau, il y a un excellent film un peu oublié "génération proteus (1977)" où l'homme s'en remet à la machine et en perd le contrôle.
Il est fini le temps où l'on exploite sans vergogne les richesses de la terre. L'exemple même du pétrole montre la folie humaine qui a engendré des guerres pour son exploitation. Je ne suis pas écologiste car je pense que c'est une autre folie. Mais par contre, il faut penser différemment, protéger la nature, vivre dans une économie fermée ou le recyclage sera de mise.Envoyé par Ryu2000
Ce n'est pas parce que nous avons des incompétents au gouvernement que notre système économique va s'effondrer. Tout ce bordel politique n'est juste qu'une façon de dire au peuple que plus personne ne maitrise quoi que ce soit. Quand on a touché le fond, on ne peut que remonter. La société est cyclique, et non linéaire.Envoyé par Ryu2000
@ Jules34 : Ryu2000 utilise la double négation. Il dit qu'un truc peut un jour arrivé, même si cela ne s'est pas encore produit. Tu devrais arrêter de lire l'apocalypse de Saint-Jean et de croire que dans l'avenir tout sera pire que maintenant.Envoyé par Ryu2000
Il faudra arrêter de regarder des films catastrophes et de croire que cela sera un jour la réalité.Envoyé par bmayesky
L'IA générative n'est pas pour demain, et je ne suis même pas certain qu'elle puisse un jour égaler la créativité humaine.
Inversement, l'IA non générative sera omniprésente puisque spécialisée dans des tâches que plus personne ne voudra faire.
Bien que cela ne soit pas un IA, qui voudrait se passer d'une calculatrice ?
Vous avez un bloqueur de publicités installé.
Le Club Developpez.com n'affiche que des publicités IT, discrètes et non intrusives.
Afin que nous puissions continuer à vous fournir gratuitement du contenu de qualité, merci de nous soutenir en désactivant votre bloqueur de publicités sur Developpez.com.
Partager