IA, le I est faux, totalement.
C'est de la statistique 'profonde' dont on perd la trace d'où les 'hallucinations' quand on pose une question qui n'a que 2 ou 3 sources, la fiabilité est nulle mais le moteur estampillé IA ne compte pas ses sources.
Quand il n'y a aucune source, l'IA sort un truc ! Entre l'interpolation (possible sous certaines réserves) et l'extrapolation (interdite) les moteurs d'IA ne font pas la différence. Zéro source, l'IA affirme sa réponse...
Les néophytes sont subjugués par la masse de connaissance qui n'est pas l'intelligence !
Les constructions de phrases sont statistiques, l'IA ne comprends pas le début de la phrase qu'elle vous sort, c'est juste le plus probable !
C'est beau les stats...
Le vivant a été bâti par une chose encore plus extraordinaire le hazard ou la force brute. Tout essayer, car la nature a tout son temps, il y a bien quelque chose qui survivra... Une débauche d'énergie, pas économe !
Nous sommes bien d'accord que l'IAG n'existe pas et encore moins dans l'avenir.
Comment une intelligence mécanique peut créer quelque chose dont elle n'a même pas la connaissance de ce l'imaginer ?
Je ne parle pas d'un raisonnement basé sur induction / déduction, mais de partir de zéro pour obtenir quelque chose de bien réel.
C'est totalement impossible en l'état car l'IA n'a aucune perception du monde qui l'entoure.
Si vous êtes de mon aide, vous pouvez cliquer sur .
Mon site : http://www.jcz.fr
Oui, mais tu le dis toi même, cela arrive "quelquefois". Mais c'est plus souvent une des choses qui exaspèrent un développeur. Souvent, au lieu d'avoir une "spécification" qui nous décrit ce qu'il faut faire, on a une spécification qui nous dit comment faire. Il y a toujours des exceptions, mais dans mon vécu, elles sont très rares.
C'est rarement le cas dans d'autres domaine. Quand tu vas trouver un avocat, tu ne lui dis pas comment il doit te défendre, c'est son métier, et il tu l'écoutes. On ne s'improvise pas développeur, tout comme on ne s'improvise pas archithecte ou chirurgien. Cela demande du temps et de l'expérience.
Ce n'est que mon avis.
BàT et Peace & Love.
Donc, tu choisis de me rabaisser au lieu d'argumenter.
Si mes souvenirs sont exacts, il existe un terme en psycho pour cela : Argument ad hominem.
Choisis l'option qui te concerne parmi celles pouvant expliquer un tel comportement :
- Manque d'arguments solides
- Stratégie de diversion
- Tentative d'établir une position de supériorité
Il faut excuser mon ignorance.
Je n'avais pas conscience que tu viens du futur et que tu sais sans aucun doute possible ce qui va arriver.
Encore une fois, toutes mes excuses.
Il est vrai que je vis dans le présent et que j'ignore de quoi sera fait l'avenir.
Si toi tu le sais, ce n'est pas bien de garder pour toi la solution au problème du climat.
Qu'est ce que tu ne comprends pas dans "Tout n'est pas tout noir ou tout blanc." ?
Encore, une fois tu déformes mes propos.
Tout mon discours disais qu'il fallait nuancer et non affirmer des vérité absolue.
Si demain la technologie de l'IA change radicalement de fonctionnement, pourquoi pas.
Mais pour moi qui ne viens pas du futur, je dis qu'avec la manière de fonctionner actuelle, les IA ne régleront pas le problème du climat.
Tu dis que je ne sais pas ce qu'est l'IA.
J'ai mentionné ce que, pour moi, est l'IA.
Si cette définition est fausse, je veux bien que tu me dise comment ça fonctionne réellement.Envoyé par popo
D'autant plus qu'apparemment, je ne sus pas le seul à donner cette définition à l'IA actuelle.
-------
Argument ad hominem.
Et moi, je maintiens que tu fais beaucoup de bruit et que tu ne fais qu'affirmer sans argumenter.
Mes tutoriels
Avant de poster :
- F1
- FAQ
- Tutoriels
- Guide du développeur Delphi devant un problème
Les grands modèles de langage (LLM) sont-ils arrivés à saturation ? Oui, selon Gary Marcus
qui estime que « les LLM ont atteint un point de rendement décroissant »
Les modèles de langage de grande taille (LLMs) tels que GPT, BERT, et leurs diverses déclinaisons ont transformé de nombreux secteurs et amélioré nos interactions avec les technologies d’intelligence artificielle (IA). Cependant, certains experts et chercheurs suggèrent aujourd’hui que ces modèles pourraient avoir atteint un point de rendement décroissant. Autrement dit, malgré leur capacité grandissante et leurs architectures de plus en plus sophistiquées, les résultats produits n'augmentent plus proportionnellement aux ressources investies dans leur développement.
L'ascension des LLM et ce qu’ils ont apportées
Les modèles de langage, alimentés par des milliards de paramètres, ont permis des avancées remarquables dans des domaines aussi variés que la traduction automatique, la génération de texte, la création de contenu, et même le diagnostic médical. Leur développement repose sur des architectures de plus en plus complexes et de vastes quantités de données textuelles, entraînées pendant des mois sur des supercalculateurs.
Au fil des années, chaque nouvelle version des LLM a marqué une étape importante. Par exemple, GPT-3, avec ses 175 milliards de paramètres, était capable de répondre aux questions, rédiger des articles, créer des scénarios ou résoudre des problèmes mathématiques simples avec une certaine précision. Plus récemment, GPT-4 et d'autres modèles encore plus grands promettaient d’aller encore plus loin, surpassant GPT-3 en termes de capacités de compréhension et de génération de texte.
Le phénomène du rendement décroissant
Pourtant, au fur et à mesure que les modèles augmentent en taille, les gains réels en performance semblent ralentir. Certains chercheurs parlent de « rendement décroissant » ou de « diminution des retours sur investissement ». Plusieurs raisons expliquent ce phénomène :
- Dépendance aux données : Pour chaque nouveau modèle, les besoins en données augmentent de manière exponentielle. Or, la disponibilité de données de haute qualité se raréfie. Les LLMs, qui reposent sur des volumes massifs de données textuelles, pourraient être en train d’épuiser les sources de données linguistiques diversifiées, entraînant ainsi des performances stagnantes ou des biais renforcés.
- Coûts et complexité croissants : Le coût d’entraînement des modèles de plus en plus grands est astronomique. Chaque nouveau palier de puissance nécessite des ressources matérielles colossales, sans compter la consommation énergétique et l'empreinte carbone qui en découlent. Les entreprises et laboratoires se demandent si ces investissements sont réellement justifiés par rapport aux améliorations marginales en précision.
- Qualité vs quantité des paramètres : Ajouter des paramètres ne signifie pas nécessairement une meilleure compréhension ou production linguistique. De nombreux chercheurs observent que la qualité des résultats produits par les LLMs atteint un seuil où des augmentations de taille n’apportent qu’une amélioration marginale, voire imperceptible, des performances.
Gary Marcus estime que les LLM ont atteint un point de rendement décroissant
Gary Marcus, fondateur et PDG de Geometric Intelligence, une startup d'apprentissage automatique rachetée par Uber en 2016, se montre critiquent face à ceux qui soutiennent une évolution exponentielle de l'IA. Par exemple, lorsqu'Elon Musk a prédit que l'IA va surpasser l'humain le plus intelligent en 2025 ou dès 2026, il s'est lancé dans un pari à 1 million de dollars (la mise est montée à 10 millions par la suite) contre les estimations d'Elon Musk :
« Cher Elon Musk. [Je mise] un million de dollars que ta dernière prédiction, à savoir que l'IA surpassera le plus intelligent sur terre d'ici fin 2025, est fausse. Pari tenu ? Je peux suggérer quelques règles à ton approbation »
Cette fois-ci, il revient à la charge en parlant du point de rendement décroissant
Ci-dessous, un extrait de son billet sur le sujet.
Cela fait des années que je préviens que la « mise à l'échelle », qui consiste à améliorer l'IA en ajoutant plus de données et plus de calcul, sans apporter de changements architecturaux fondamentaux, ne se poursuivra pas éternellement. Dans mon article le plus célèbre, en mars 2022, j'ai affirmé que « l'apprentissage profond se heurte à un mur ». L'argument central était que la mise à l'échelle pure ne résoudrait pas les hallucinations ou l'abstraction ; j'ai conclu que « l'argument de la mise à l'échelle présente de sérieuses lacunes », ce qui m'a valu de nombreuses critiques.
Sam Altman a laissé entendre (sans prononcer mon nom, mais en reprenant les images de mon article alors récent) que j'étais un « médiocre sceptique de l'apprentissage profond » ; Greg Brockman s'est ouvertement moqué de ce titre. Yann LeCun a écrit que l'apprentissage profond ne se heurtait pas à un mur, et ainsi de suite. Elon Musk lui-même s'est moqué de moi et de ce titre au début de l'année.
Le fait est qu'à long terme, la science n'est pas la règle de la majorité. En fin de compte, la vérité l'emporte généralement. L'alchimie a connu une bonne période, mais elle a été remplacée par la chimie. La vérité, c'est que l'échelle est en train de s'épuiser, et que cette vérité est enfin en train d'émerger.
Il y a quelques jours, le célèbre investisseur en capital-risque Marc Andreesen a commencé à vendre la mèche en déclarant lors d'un podcast : « Nous augmentons [les unités de traitement graphique] au même rythme, mais nous n'en tirons pas du tout d'améliorations intelligentes », ce qui signifie en langage de capital-risque : « L'apprentissage en profondeur se heurte à un mur ».
Il y a quelques instants, Amir Efrati, rédacteur en chef de la revue spécialisée The Information, a confirmé que nous avions atteint une période de rendements décroissants, en écrivant sur X que « le [prochain] modèle Orion d'OpenAI montre à quel point les améliorations GPT ralentissent ».
Comme je l'ai affirmé ici en avril 2024, les LLM ont atteint un point de rendement décroissant.
Les conséquences économiques seront probablement désastreuses. Les valorisations élevées de sociétés comme OpenAI et Microsoft sont largement basées sur l'idée que les LLM deviendront, en continuant à se développer, des intelligences générales artificielles. Comme je l'ai toujours dit, il s'agit là d'un fantasme. Il n'y a pas de solution de principe aux hallucinations dans les systèmes qui ne traitent que les statistiques du langage sans représentation explicite des faits et sans outils explicites pour raisonner sur ces faits.Folks, game over. I won.
— Gary Marcus (@GaryMarcus) November 9, 2024
GPT is hitting a period of diminishing returns, just like I said it would. https://t.co/vSfn1lAc3D
Les LLM ne disparaîtront pas, même si les améliorations diminuent, mais l'économie n'aura probablement jamais de sens : la formation supplémentaire est coûteuse, plus l'échelle est grande, plus elle est coûteuse. Et, comme je l'ai signalé, tout le monde atterrit plus ou moins au même endroit, ce qui fait que personne n'a de fossé. Les LLM, tels qu'ils sont, deviendront une marchandise ; les guerres de prix maintiendront les revenus à un niveau bas. Compte tenu du coût des puces, les bénéfices seront insaisissables. Lorsque tout le monde s'en rendra compte, la bulle financière risque d'éclater rapidement ; même NVidia pourrait être touchée, lorsque les gens réaliseront à quel point son évaluation était basée sur une fausse prémisse.
Une étude d'Apple conclut que les modèles d'IA basés sur le LLM sont défectueux car ils ne peuvent pas raisonner
Des scientifiques d'Apple spécialisés dans l'IA ont étudié les capacités de raisonnement des grands modèles de langage (LLM) et les limites des évaluations actuelles sur le GSM8K. Ils ont constaté que les modèles d'IA basés sur le LLM, entre autres ceux de Meta et d'OpenAI, manquent encore de compétences de base en matière de raisonnement.
Le groupe a proposé un nouveau critère de référence, GSM-Symbolic, pour aider les autres à mesurer les capacités de raisonnement de divers grands modèles de langage (LLM). Leurs premiers tests révèlent que de légères modifications dans la formulation des requêtes peuvent donner lieu à des réponses sensiblement différentes, ce qui compromet la fiabilité des modèles.
Le groupe a étudié la "fragilité" du raisonnement mathématique en ajoutant à ses requêtes des informations contextuelles qu'un humain pourrait comprendre, mais qui ne devraient pas affecter les mathématiques fondamentales de la solution. Cela a donné lieu à des réponses variables, ce qui ne devrait pas se produire.
"Plus précisément, les performances de tous les modèles diminuent [même] lorsque seules les valeurs numériques de la question sont modifiées dans le benchmark GSM-Symbolic", écrit le groupe dans son rapport. "En outre, la fragilité du raisonnement mathématique dans ces modèles [démontre] que leurs performances se détériorent de manière significative à mesure que le nombre de clauses dans une question augmente."
L'étude a montré que l'ajout d'une seule phrase qui semble fournir des informations pertinentes pour une question de mathématiques donnée peut réduire la précision de la réponse finale jusqu'à 65 %. « Il est tout simplement impossible de construire des agents fiables sur cette base, où la modification d'un mot ou deux de manière non pertinente ou l'ajout de quelques informations non pertinentes peut donner une réponse différente », conclut l'étude.
Source : Gary Marcus
Et vous ?
Que pensez-vous de l'avis de Gary Marcus ?
La qualité et la diversité des données utilisées deviennent-elles un obstacle pour les LLM ? Sommes-nous proches d’une saturation où toutes les sources de données linguistiques possibles auraient été exploitées ?
Est-il judicieux de concentrer des ressources massives dans les LLM si les bénéfices semblent se réduire ? Comment évaluer ces gains à court terme face aux risques d’appauvrissement de l’innovation dans d’autres domaines de l'IA ?
Avec les performances stagnantes, devrions-nous revoir les objectifs des LLM ? Devrions-nous, par exemple, viser des applications de niche où la performance est maximale plutôt que de chercher des capacités de compréhension universelles ?
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
est il vraiment pertinent de faire un gros modèle ?
j'ai déja eu un cas concret dans le passé (rien a voir avec les llm), plus on faisait un gros réseau de neurone avec de la data (de "qualité" en plus) plus le modèle était mauvais/stagnait (overfitting).
au final nous avons fait plusieurs petit modèle et un classifier en front pour choisir le modèle en fonction des données d'entrées, les résultats était bien meilleurs ainsi.
l'article parle t'il d'ia généraliste comme chatgpt ou d'ia spécialisé par exemple dans le code ou des 2 ?
De toute façon cette technos et fatalement limité par la production humaine, si demain l'ia remplace les devs, alors l'ia ne pourra plus évoluer. C'est grâce à des humains qui écrive des docs, trouve des bugs les corrige ou écrive sur les forum comment les contourner et donne des réponses bénévolement sur stackoverflow que l'ia progresse.
Or l’informatique c'est surement le domaine le moins stable dans le monde, y'a toujours une nouvelle technos, une nouvelle version, des patchs de sécurité a faire...si bien que il faut évoluer et s'adapter, pour un humain, c'est un aspect que l'on peut aimer ou détester, mais ce que l'on apprends à la sortie d'école et déjà obsolète, c'est de l'apprentissage continue.
edit: même dans le cas d'ia orienté code, une fois ratissez les forums style stackoverflow, c'est compliqué d'aller plus loins
par contre, j'imagine dans le futur une fonctionnalité pour les entreprises permettant de donner à l'ia toute la base de code et doc technique de l'entreprise et s'entrainer dessus, ainsi l'ia aurait le contexte de l'entreprise et le coding standard. Ca serait déja une belle amélioration dans la qualité des réponses.
par exemple je lui demande comment me connecter une l'api d'un service interne, elle va me donner le code, comment m'y connecter (demander à Jean Jacque sur teams de me crée un compte machine avec token en lecture, ensuite de tester la connexion avec ce code et enfin la fonctionnalité que vous avez demandez)
Il y a pas mal d'exemple comme ça.
Une des méthode de calcul d'un nombre irrationnel (pi il me semble) est convergente jusqu'à un certain nombre d'itération puis oscille autour de sa valeur
Sous Catia V5 (logiciel de CAO), dans certains modèles, la modélisation par éléments finis a une granularité optimale, une fois dépassée on génère des points avec des anomalies ce qui dégrade le résultat.
Ce n'est pas pour rien que certains modèles de données interdisent trop de liens, parce qu'on arrive avec "deux chemins" et "deux résultats" différents pour une même formule.
C'est le risque que courent tous ceux qui font la promotion de modélisation de données avec un niveau d'abstraction maximal.
Bonjour,
Je n'ai pas lu tout l'article mais ce qu'il faut avoir à l'esprit c'est qu'on n'est qu'au balbutiement de l'IA.
Je pense qu'on n'est pas plus avancé en IA que lors des débuts de l'aviation où l'homme pensait qu'il fallait battre des ailes pour s'envoler.
Peut-être que dans quelques années on ne parlera plus de réseaux de neurones car on aura découvert une autre façon de "faire" de l'intelligence.
C'est comme les yeux de la coquille Saint-Jacques.
Site perso
Recommandations pour débattre sainement
Références récurrentes :
The Cambridge Handbook of Expertise and Expert Performance
L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})
Je note que bing copilot est pas mal... il propose des références. Du coup, j'ai l'impression qu'un LLM qui sert à interpréter (à défaut de vraiment comprendre la phrase), sortir des référence, les réinjecter dans le prompt pour faire un résumé, bref une approche hybride (LLM/recherche) peut être plus pertinente qu'une approche uniquement axée sur le moteur de neurone.
Et j'imagine que cela aurait peut-être pu éviter à un avocat de se faire taper sur les doigts faute d'avoir vérifier les "références" proposées par le LLM.
Le PDG d'OpenAI Sam Altman revoit à la baisse les attentes en matière d'intelligence artificielle générale (IAG),
Une stratégie d'OpenAI face aux limites actuelles de l'IA ou une remise en question des ambitions futures ?
Il y a près de deux ans, OpenAI affirmait que l'intelligence artificielle générale (IAG), l'objet pour lequel la société a été créée, pourrait « élever l'humanité » et « donner à chacun d'incroyables nouvelles capacités ». Au début de l'année, son PDG affirmait qu'elle serait disponible « dans une avenir raisonnablement proche ».
Aujourd'hui, Sam Altman tente de réduire les attentes.
Cette annonce, surprenante pour certains, s’inscrit dans un contexte où les avancées spectaculaires de l’IA générative (comme GPT-4) n’ont pas encore répondu aux attentes souvent exagérées concernant l’IAG. Mais qu’entend exactement Altman par « abaisser la barre » ? Est-ce un aveu d’échec, une stratégie pragmatique ou un repositionnement stratégique d’OpenAI ?
Une redéfinition de l’objectif
La promesse de l’intelligence artificielle générale a toujours fait rêver les scientifiques et les visionnaires. Une machine capable de comprendre, d’apprendre et de s’adapter de manière similaire à l’intelligence humaine est perçue par certains comme le Saint Graal technologique.
Mais récemment, Sam Altman, le PDG d’OpenAI, a jeté un pavé dans la mare en déclarant que les attentes envers l’IAG pourraient être revues à la baisse.Envoyé par OpenAI
Historiquement, l’IAG a été conceptualisée comme une intelligence capable de reproduire, voire surpasser, toutes les capacités cognitives humaines. Dans cette vision, l’IAG ne se limiterait pas à des tâches spécifiques mais pourrait résoudre une gamme infinie de problèmes avec créativité et adaptabilité. Toutefois, la déclaration d’Altman semble signaler un virage : l’IAG pourrait être redéfinie comme une avancée significative mais restreinte dans certains domaines clés, sans pour autant atteindre une équivalence totale avec la cognition humaine.
Cette approche reflète une réalité : malgré des progrès impressionnants, l’IA reste fortement limitée par des biais inhérents, une compréhension fragmentaire du monde et une incapacité à véritablement raisonner. Les modèles comme GPT-4 montrent une capacité d’imitation sophistiquée mais échouent souvent à démontrer une réelle compréhension. En d’autres termes, Altman semble vouloir aligner la vision de l’IAG avec les possibilités techniques actuelles et à venir, plutôt que de maintenir un objectif utopique.
« Je pense que nous atteindrons l'IAG plus tôt que ne le pensent la plupart des gens dans le monde et que cela aura beaucoup moins d'importance », a-t-il déclaré lors d'une interview avec Andrew Ross Sorkin au New York Times DealBook Summit.
« Et une grande partie des préoccupations en matière de sécurité que nous et d'autres avons exprimées ne se posent pas au moment de l'IAG. L'IAG peut être construite, le monde continue à peu près de la même manière, les choses se développent plus rapidement, mais il y a ensuite une longue suite entre ce que nous appelons l'IAG et ce que nous appelons la superintelligence ».
Ce n'est pas la première fois qu'Altman minimise l'arrivée apparemment imminente de l'IAG, qui, selon la charte d'OpenAI, sera capable « d'automatiser la grande majorité du travail intellectuel ». Il a récemment laissé entendre qu'elle pourrait arriver dès 2025 et qu'elle serait réalisable sur du matériel existant.
Lors du sommet DealBook, Altman a donné l'impression que la définition de l'IAG par OpenAI est désormais moins grandiose qu'elle ne l'était auparavant. « Je m'attends à ce que la perturbation économique prenne un peu plus de temps que les gens ne le pensent parce qu'il y a beaucoup d'inertie dans la société », a-t-il déclaré. « Ainsi, au cours des deux premières années, il n'y aura peut-être pas beaucoup de changements. Ensuite, il se peut que beaucoup de choses changent ».
Une porte de sortie de son accord commercial exclusif avec Microsoft ?
Ce que les dirigeants d'OpenAI qualifiaient d'IAG semble maintenant s'appeler « superintelligence », qui, selon Altman, pourrait arriver « dans quelques milliers de jours ». Ce qui est pratique pour OpenAI, c'est que son accord commercial exclusif avec Microsoft, incroyablement compliqué, comporte ce qui s'apparente à une échappatoire une fois qu'il déclare l'arrivée de l'IAG, et non de la superintelligence.
Sortir de son accord de partage des bénéfices avec Microsoft serait une grande affaire pour OpenAI et ses ambitions de devenir la prochaine grande entreprise technologique à but lucratif. Mais selon Altman lui-même, l'IAG ne sera pas une si grande affaire pour le reste d'entre nous.
Altman s'est dit optimiste quant à l'adaptation des humains et de l'économie aux changements apportés par l'IA, et même si les emplois seront fortement perturbés, les gens s'adapteront et trouveront de nouvelles façons de contribuer.
« Je ne crois pas à l'idée qu'il n'y ait plus de travail. Je pense que nous trouverons toujours quelque chose à faire, mais avec chaque révolution technologique, il y a beaucoup de rotation des emplois. Mais je parie que nous n'aurons jamais connu une telle rapidité. Je pense donc qu'il faut s'inquiéter de ce genre de choses à relativement court terme ».
Les implications stratégiques
En abaissant les attentes autour de l’IAG, Altman ne renonce pas à l’innovation, mais redéfinit les priorités. Une telle stratégie peut permettre à OpenAI de concentrer ses ressources sur des applications concrètes de l’IA, plutôt que de poursuivre un idéal encore inaccessible. Cela pourrait également apaiser les craintes croissantes du public et des régulateurs, qui associent souvent l’IAG à des scénarios dystopiques où les machines échappent au contrôle humain.
Cependant, cette décision soulève des questions. Réduire la portée de l’IAG ne risque-t-il pas de diluer l’ambition d’OpenAI, voire de décourager les investisseurs et les talents attirés par la promesse d’une révolution ? En outre, cela pourrait renforcer l’idée que l’IAG est une chimère, une simple extrapolation des capacités actuelles de l’IA, plutôt qu’un objectif atteignable.
Pragmatisme ou recul ?
La critique principale de cette redéfinition est qu’elle pourrait être perçue comme un recul masqué par un pragmatisme stratégique. D’un autre côté, elle marque peut-être une nécessaire désillusion : reconnaître les limites actuelles de la technologie permettrait d’adopter une approche plus réaliste de son développement.
Altman semble adopter une vision plus mesurée face à un domaine saturé d’hyperboles et de prophéties apocalyptiques. Pourtant, ce changement de cap pourrait signaler un changement de paradigme plus large : l’idée que l’IA n’a pas besoin d’égaler l’intelligence humaine pour transformer nos sociétés.
Musk n'abusera pas de son pouvoir
Musk est cofondateur d'OpenAI, mais il s'est brouillé avec Altman et poursuit l'entreprise pour avoir violé sa mission fondatrice en faisant passer le profit avant le bénéfice de l'humanité. Musk a son propre rival OpenAI, appelé xAI.
Altman s'est dit « extrêmement triste » de s'être brouillé avec Musk, qui était pour lui un « méga-héros » : « J'ai des sentiments différents à son égard maintenant, mais je suis toujours heureux qu'il existe », a déclaré Altman, ajoutant que l'influence politique de Musk en tant que “premier ami” du président élu américain Donald Trump ne l'effrayait pas.
« Je peux me tromper, mais je crois fermement qu'Elon fera ce qu'il faut. Il serait profondément anti-américain d'utiliser le pouvoir politique, dans la mesure où Elon l'a, pour nuire à vos concurrents et avantager vos propres entreprises », a déclaré Altman. « Je ne pense pas que les gens le toléreraient. Je ne pense pas qu'Elon le ferait. Il y a beaucoup de choses que l'on n'aime pas chez lui, mais cela irait tellement à l'encontre des valeurs qui lui sont chères que je ne m'en inquiète pas ».
Les agents d'IA vont changer le monde des affaires
Interrogé sur la manière dont les progrès réalisés dans le développement de grands modèles de langage plus intelligents pourraient surprendre les gens avec de nouvelles capacités, Altman a opté directement pour les agents d'IA. L'IA agentique est la saveur du mois chez les grands fournisseurs de logiciels tels que Salesforce et implique des « travailleurs » de l'IA qui peuvent effectuer des tâches de manière autonome, en imitant essentiellement la façon dont les humains les feraient. À ce propos, Salesforce prévoit de recruter 1 000 employés pour vendre son nouveau produit d'agent d'IA générative, Agentforce. Une initiative qui a été prise quelques semaines après que Salesforce a annoncé Dreamforce, sa nouvelle stratégie en matière d'IA, et reconnu que l'IA va remplacer certains emplois humains.
Anthropic, le rival d'OpenAI, a fait sensation en octobre lorsqu'il a démontré que des agents d'IA faisaient fonctionner un ordinateur à partir d'un simple message d'invite.
« Les agents sont le sujet dont tout le monde parle, et je pense que c'est à juste titre », a déclaré Altman.
« L'idée que l'on puisse confier à un système d'IA une tâche que l'on confierait à un humain très intelligent... C'est le genre de choses que j'attends pour l'année prochaine, et c'est une affaire énorme... Si cela fonctionne aussi bien que nous l'espérons, cela peut vraiment transformer les choses ».
Conclusion
En abaissant la barre pour l’AGI, Sam Altman ouvre un débat crucial sur les objectifs réels et les limites de la recherche en intelligence artificielle. Plutôt qu’un renoncement, cette redéfinition pourrait marquer une évolution vers une vision plus nuancée et ancrée dans le réel. Mais ce choix stratégique comporte aussi des risques : celui de décevoir des attentes et d’altérer l’attrait visionnaire d’OpenAI. L’avenir de l’IAG, tel que le conçoit Altman, dépendra de la capacité de cette vision révisée à inspirer autant qu’à innover.
Sources : vidéo dans le texte, OpenAI
Et vous ?
La déclaration de Sam Altman pourrait-elle être interprétée comme un aveu d’échec par le grand public ? Comment OpenAI devrait-elle communiquer pour éviter ce malentendu ?
En abaissant les attentes, OpenAI prend-elle le risque de nourrir un scepticisme plus large envers les promesses de l’IA ?
Cette redéfinition reflète-t-elle une prise de conscience technique ou un repositionnement stratégique face aux attentes sociétales et politiques ?
La baisse des ambitions pourrait-elle ouvrir la voie à d’autres acteurs pour revendiquer des objectifs plus ambitieux et attirer des financements ?
Une porte de sortie de son accord commercial exclusif avec Microsoft ?
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Et donc M. Altman tente de réduire les attentes.OpenAI
Notre mission est de veiller à ce que l'intelligence artificielle générale - des systèmes d'intelligence artificielle généralement plus intelligents que les humains - profite à l'ensemble de l'humanité.
En quoi est-ce surprenant ?
Le hasard a quelque chose à voir avec la formulation d'un vœu.
Bonjour,
Vous cassez pas la tête avec toutes ces spéculations, on est juste le fruit d'une IA pour des Dieux qui jouent à Civilization !!
Pour l'instant l'IA n'a pas encore créé la civilisation que l'on va bientôt affronter (dans quelques millénaires logiquement), c'est pour
ça qu'on n'a encore rien vu (paradoxe de Fermi), ou alors on va périr autrement vu qu'on est coincés entre 'don't look up' et '2001'
c'est à dire l'incapacité à s'entendre pour éviter les catastrophes naturelles (comètes, virus..) et l'avancée technologique qui risque
de pondre une IA qui nous prendra pour des escargots si on lui donne la capacité de raisonner et sabotera nos centrales, créera un virus
sans antidote ou un fake complot parfait qui fera qu'on s'envoie nos bombes sur la gueule.
Je voulais juste dire à l'IA que je l'emmerde et que je sais bien ce qu'elle mijote, c'est pour ça que je vais me chercher une bière,
m'allumer un gros cigare en regardant le match de foot avec ma copine en gueulant sur les occases manquées par ces "millionnaires
qui ont deux pieds gauches" ce qui fera aboyer le chien et le voisin va encore cogner sur le mur pour réclamer...
Quand je pense que c'est cette foutue IA qui a prévu tout ça, même le fait que je viens de créer ce post...déprimant
Un ingénieur en IA d'OpenAI affirme avoir réalisé l'AGI : « Nous avons déjà réalisé l'AGI... ce que nous avons est "meilleur que la plupart des humains pour la plupart des tâches".»
Un ingénieur en IA d'OpenAI a déclaré que l'AGI a déjà été atteinte. Il déclare notamment que "Nous ne sommes pas parvenus à "faire mieux que n'importe quel humain pour n'importe quelle tâche", mais à "faire mieux que la plupart des humains pour la plupart des tâches."
L'AGI est considérée comme l'objectif final de la recherche sur l'IA, le Saint Graal pour les entreprises d'IA. Sam Altman, PDG d'OpenAI, a affirmé qu'il ne se soucie pas du tout des sommes colossales dépensées par son entreprise pour développer des modèles d'IA plus avancés. Il a expliqué que le but est de construire l'intelligence artificielle générale (AGI) et que la fin justifie les moyens. Il a également déclaré que GPT-4 est la technologie la plus stupide que le monde aura à utiliser. Ce qui laisse suggérer que GPT-5 ne ressemblera en rien aux modèles d'IA précédents d'OpenAI et devrait être une évolution majeure de l'IA générative.
L'AGI ou l'intelligence artificielle générale est une IA dite "forte" qui devrait être capable de penser au même titre que les humains et de s'attaquer n'importe quelle tâche. L'industrie s'attend à ce que l'AGI soit capable d'effectuer ou d'apprendre pratiquement n'importe quelle tâche cognitive propre aux humains ou autres animaux. Mais bien que l'IA se soit considérablement développée à ce jour, pour beaucoup, ses capacités restent extrêmement limitées et elle est encore loin d'atteindre l'AGI.
Récemment, un ingénieur en IA d'OpenAI a déclaré que l'AGI a déjà été atteinte. Voici ces propos:
À mon avis, nous avons déjà atteint l'AGI et c'est encore plus clair avec O1. Nous ne sommes pas parvenus à « faire mieux que n'importe quel humain pour n'importe quelle tâche », mais à « faire mieux que la plupart des humains pour la plupart des tâches ». Certains disent que les LLM ne savent que suivre une recette. Tout d'abord, personne ne peut vraiment expliquer ce qu'un réseau neuronal profond de mille milliards de paramètres peut apprendre. Mais même si vous croyez cela, la méthode scientifique dans son ensemble peut être résumée par une recette : observer, émettre des hypothèses et vérifier. Les bons scientifiques peuvent produire de meilleures hypothèses sur la base de leur intuition, mais cette intuition elle-même a été construite par de nombreux essais et erreurs. Il n'y a rien qui ne puisse être appris avec des exemples.Cette déclaration semble en accord aux précédentes annonces de Sam Altman. Il avait récemment déclaré : "Je pense que nous atteindrons l'AGI plus tôt que ne le pensent la plupart des gens dans le monde et que cela aura beaucoup moins d'importance. Et une grande partie des préoccupations en matière de sécurité que nous et d'autres avons exprimées ne se posent pas au moment de l'AGI. L'AGI peut être construite, le monde continue à peu près de la même manière, les choses se développent plus rapidement, mais il y a ensuite une longue suite entre ce que nous appelons l'AGI et ce que nous appelons la superintelligence."In my opinion we have already achieved AGI and it’s even more clear with O1. We have not achieved “better than any human at any task” but what we have is “better than most humans at most tasks”. Some say LLMs only know how to follow a recipe. Firstly, no one can really explain…
— Vahid Kazemi (@VahidK) December 6, 2024
Ces propos du PDG d'OpenAI admettent l'arrivée imminente de l'AGI, peut-être dès 2025, mais ils donnent également l'impression que la définition de l'AGI par OpenAI est désormais moins grandiose qu'elle ne l'était auparavant. Sam Altman avait même déclaré : "Je m'attends à ce que la perturbation économique prenne un peu plus de temps que les gens ne le pensent parce qu'il y a beaucoup d'inertie dans la société. Ainsi, au cours des deux premières années, il n'y aura peut-être pas beaucoup de changements. Ensuite, il se peut que beaucoup de choses changent."
Pour les observateurs de l'écosystème de l'IA, ces déclarations viennent s'ajouter aux battages médiatiques déjà énormes sur l'AGI. Un critique avait déclaré en 2023 : "L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas." Dana Blankenhorn, journaliste technologique, avait affirmé que l'AGI est le plus gros mensonge de l'année et que cette technologie n'existe tout simplement pas.
Son analyse suggère que la surmédiatisation de l'AGI est liée aux visées politiques de certains acteurs importants du secteur de l'IA et à leurs tentatives visant à contrôler entièrement le développement de la technologie. Le journaliste allègue en outre que le but de ces acteurs est d'élever considérablement les barrières à l'entrée de nouveaux acteurs sur le marché. Son point de vue fait toutefois l'objet de controverses.
Et vous ?
Pensez-vous que ces déclarations de l'ingénieur d'OpenAI sont crédibles ou pertinentes ?
Quel est votre avis sur le sujet ?
Voir aussi :
L'intelligence générale artificielle (AGI) dans 3 ans, d'après James Betker, ingénieur chez OpenAI, serait un agent incarné généralement intelligent
Sundar Pichai, PDG de Google, prédit l'avenir de l'IA : le développement de l'IA va commencer à ralentir, « Je pense que les progrès vont devenir plus difficiles, les fruits à portée de main ont disparu »
Le chercheur en IA Max Tegmark estime qu'il faut mettre un terme aux progrès de l'IA et empêcher la création des AGI, en veillant à ce que l'IA ne devienne qu'un outil et non une superintelligence
Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités
OpenAI cherche à débloquer des investissements en supprimant la clause « IAG » (IA générale) avec Microsoft,
une disposition qui visait à protéger sa technologie d'une utilisation abusive à des fins commerciales
OpenAI est en pourparlers pour supprimer une disposition qui exclut Microsoft de ses modèles les plus avancés lorsque la start-up parvient à « l'intelligence artificielle générale », dans le but de débloquer des milliards de dollars d'investissements futurs. Selon les termes actuels, lorsqu'OpenAI parviendra à créer l'IAG (définie comme un « système hautement autonome qui surpasse les humains dans la plupart des tâches économiquement utiles »), l'accès de Microsoft à cette technologie serait annulé. Le conseil d'administration de l'OpenAI déterminerait le moment où l'IAG serait atteint. Selon des analystes, le fait que Sam Altman revoit à la baisse les attentes en matière d'intelligence artificielle générale était déjà le signal indiquant qu'en interne cette posture se préparait à être adoptée.
Un partenariat stratégique, mais contraignant
Depuis 2019, OpenAI bénéficie d’un soutien financier et technologique considérable de Microsoft. Ce partenariat a permis à OpenAI de développer ses modèles avancés, notamment GPT-4 et DALL·E, tout en s’appuyant sur l’infrastructure cloud Azure de Microsoft. Cependant, la clause dite "IAG" stipulait que les développements visant l'intelligence artificielle générale devaient prioritairement être alignés sur des objectifs de bénéfice pour l'humanité. Cela limitait, en théorie, l’autonomie d’OpenAI pour diversifier ses investisseurs ou orienter certains de ses projets.
La décision de supprimer cette clause pourrait être perçue comme une manière de lever ces barrières, ouvrant ainsi la voie à de nouveaux financements et à une indépendance accrue. Mais à quel prix ?
La quête de l’investissement : un double tranchant
En abandonnant cette clause, OpenAI cherche à séduire des investisseurs au-delà de Microsoft et à garantir une plus grande flexibilité stratégique. Toutefois, cette décision pourrait renforcer la perception que la mission originelle d’OpenAI (celle de veiller à un développement éthique et contrôlé de l’IA) est reléguée au second plan. Le risque ici est que la recherche de profits ou de domination technologique prime sur l'engagement éthique initial.
Certains critiques s’inquiètent également du rôle croissant de Microsoft dans cette équation. Bien que la suppression de la clause pourrait signaler une certaine prise de distance, elle laisse planer le doute quant à la capacité d’OpenAI à se libérer totalement de l’influence de son partenaire historique.Envoyé par OpenAI
La clause a été incluse pour protéger la technologie potentiellement puissante d'une utilisation abusive à des fins commerciales
La start-up envisage de supprimer la stipulation de sa structure d'entreprise, ce qui permettrait au groupe Big Tech de continuer à investir dans la technologie OpenAI et d'y accéder après la réalisation de l'IAG, selon plusieurs personnes au fait des discussions. La décision finale n'a pas encore été prise et le conseil d'administration étudie actuellement les différentes options possibles, ont-elles ajouté.
La clause a été incluse pour protéger la technologie potentiellement puissante d'une utilisation abusive à des fins commerciales, en donnant la propriété de la technologie à son conseil d'administration à but non lucratif. Selon le site web d'OpenAI : « L'IAG est explicitement exclue de tous les accords de licence commerciale et de propriété intellectuelle ».
Mais cette disposition risque de limiter la valeur de son partenariat pour Microsoft, qui a injecté plus de 13 milliards de dollars dans OpenAI, et pourrait dissuader le groupe Big Tech d'investir davantage.
Des fonds supplémentaires seront nécessaires compte tenu des coûts exorbitants qu'implique le développement de modèles d'IA avancés dans une course contre des rivaux au portefeuille bien garni tels que Google et Amazon.
Le groupe de San Francisco dirigé par Sam Altman, qui a récemment été évalué à 150 milliards de dollars, est en train de se restructurer pour devenir une société d'utilité publique. Cette décision marque une rupture avec ses origines de laboratoire de recherche à but non lucratif.
Des discussions sur les nouvelles conditions avec les investisseurs
Dans le cadre de ces changements, OpenAI discute de nouvelles conditions avec les investisseurs, y compris avec son principal actionnaire, Microsoft, selon plusieurs personnes au courant de ces conversations. « Lorsque nous avons commencé, nous n'avions aucune idée que nous allions devenir une entreprise de produits ou que le capital dont nous avions besoin serait si important », a déclaré Altman lors d'une conférence organisée par le New York Times mercredi. « Si nous avions su cela, nous aurions choisi une structure différente ».
« Nous avons également dit que notre intention était de considérer l'IAG comme une borne kilométrique sur le chemin. Nous nous sommes laissé une certaine marge de manœuvre parce que nous ne savons pas ce qui va se passer », a ajouté Altman, qui pourrait recevoir pour la première fois une participation directe au capital d'OpenAI dans le cadre de la restructuration.
De plus en plus, les membres de l'OpenAI s'éloignent de la définition de l'IAG comme un point unique, soulignant plutôt qu'il s'agit d'un processus continu et qu'il sera défini par la société dans son ensemble.
OpenAI a commencé à lever des capitaux extérieurs en 2019, recevant cette année-là un investissement de 1 milliard de dollars de la part de Microsoft. À l'époque, la société a déclaré qu'elle avait l'intention « d'accorder une licence à Microsoft pour certaines de nos technologies pré-IAG » afin de couvrir les coûts de développement de l'IA de pointe.
OpenAI a conseillé aux bailleurs de fonds d'envisager leurs investissements « dans l'esprit d'un don, en sachant qu'il peut être difficile de savoir quel rôle jouera l'argent dans un monde post-IAG ». Mais son évolution constante vers une entité à but lucratif a suscité de vives critiques de la part de ses rivaux, notamment d'Elon Musk, l'un des premiers bailleurs de fonds et cofondateur d'OpenAI. Le chef milliardaire de Tesla, qui a depuis fondé une start-up rivale, xAI, a récemment intenté une action en justice contre OpenAI et Microsoft, accusant Altman de « tromperie aux proportions shakespeariennes » et cherchant à annuler son partenariat commercial avec Microsoft.
Dans le cadre de la restructuration proposée, le fabricant de ChatGPT conservera également une entité indépendante à but non lucratif, qui détiendra une participation dans la nouvelle société d'intérêt public et potentiellement un trust, selon des personnes au fait des discussions. L'entité à but non lucratif aurait accès à la recherche et à la technologie, mais se concentrerait uniquement sur la poursuite de la mission d'OpenAI, qui est de bénéficier à l'humanité.
OpenAI a refusé de commenter les détails des négociations autour de la restructuration, mais Bret Taylor, président du conseil d'administration d'OpenAI, a déclaré que le conseil d'administration de l'organisation à but non lucratif « s'attache à remplir son obligation fiduciaire en veillant à ce que l'entreprise soit bien positionnée pour continuer à faire avancer sa mission, qui consiste à faire en sorte que l'IAG profite à l'ensemble de l'humanité ».
Il a ajouté : « Bien que notre travail se poursuive et que nous continuions à consulter des conseillers financiers et juridiques indépendants, toute restructuration potentielle garantirait que l'association à but non lucratif continue d'exister et de prospérer, et qu'elle reçoive la pleine valeur de sa participation actuelle dans l'entreprise à but lucratif OpenAI, avec une capacité accrue de poursuivre sa mission. »
Un tournant dans la gouvernance d’OpenAI
Cette évolution reflète également un glissement dans la gouvernance de l’organisation. OpenAI, à l’origine une organisation à but non lucratif, s’est transformée en 2019 en une entité "for-profit", mais avec des limites de rendement ("capped profit"). Cette transition avait déjà suscité des débats sur la compatibilité entre rentabilité et impact social.
Aujourd’hui, le choix de modifier sa relation contractuelle avec Microsoft marque une étape supplémentaire vers une logique plus commerciale. Cela pose une question fondamentale : OpenAI peut-elle concilier son rôle de pionnier technologique et sa responsabilité éthique dans un cadre fortement dicté par des considérations de marché ?
Sources : vidéo dans le texte, OpenAI
Et vous ?
Quelle analyse faites-vous de l'étude de la suppression de la clause IAG ? Compromettrait-elle, selon vous, l'engagement d'OpenAI envers une IA bénéfique pour l'humanité ? Pourquoi ?
La dépendance envers un partenaire majeur comme Microsoft est-elle une force ou une faiblesse pour OpenAI dans sa quête d’autonomie ?
Selon vous, qui devrait être responsable de la gouvernance des technologies liées à l’IAG : des entreprises privées, des gouvernements, ou des organismes indépendants ?
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Je ne suis pas certain qu'en imitant l'humain, une IA pourra faire mieux. A la limite, elle effectuera (ou reprendra) la meilleure solution qu'un humain produira, en admettant qu'elle sera à sa disposition, mais pas au delà de ce qu'un humain pourrait faire. La question est "comment faire mieux qu'un humain" ? Je pense qu'il faut penser autrement qu'un humain, et peut-être découvrir un autre mode de pensée, que l'on n'a pas encore envisagé, pour produire un résultat qui soit bien meilleur que celui d'un humain.
Je veux dire que le champs d'expérimentation de l'IA est l'internet et de tout ce que l'humain y dépose. L'IA ne sait pas raisonner et c'est cela le problème. Il ne peut que trouver dans cette base de données qu'est l'internet, la réponse qu'il cherche. L'autre question est "comment apprendre à une IA à raisonner par elle même " ? Dans ce cas, l'IA devient incontrôlable, voire même impossible à vérifier ce qu'elle va affirmer. Et du coup, l'humain n'a plus aucun contrôle sur l'IA.
Si vous êtes de mon aide, vous pouvez cliquer sur .
Mon site : http://www.jcz.fr
Artemus24 > "Je ne suis pas certain qu'en imitant l'humain, une IA pourra faire mieux."
Pour l'instant l'IA n'arrive pas encore à imiter l'esprit humain, loin de là, si elle y arrivait cela serait déjà une grande avancée, en attendant un raisonnement supèrieur à l'humain.
Par exemple si on lui permettait l'accés aux données connues (publications + toutes les données connues en science) jusqu'en 1905 par exemple, elle ne serait pas capable de
formuler une chose proche de la Relativité Générale, car il faut faire preuve d'intuitions, d'interpréter des concepts abstraits, avoir une approche plus générale d'un problème concret
(courbure des rayons lumineux) venant de l'astronomie, de la géométrie, de la physique, des mathémathiques etc...et non juste de données brutes.
Comme vous le signalez, si l'IA avait cette capacité à raisonner d'elle-même en mixant intuition, abstraction, questions méthaphysqiues et phylosophiques, ne deviendrait-elle pas
incontrôlable ? Je rejoins Hawking sur sa crainte (l'IA pourrait mettre fin à l’humanité...) du développement d’une intelligence artificielle complète . Mais à l'heure actuelle
elle est encore trés trés loin de l'esprit humain le plus brillant !
Partager