IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #201
    Membre régulier
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Juillet 2016
    Messages
    49
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 71
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique

    Informations forums :
    Inscription : Juillet 2016
    Messages : 49
    Points : 114
    Points
    114
    Par défaut Problème du nénuphar
    ChatGPT-4 sous Copilot
    Je donne l'intégralité de la conversation.

    Prompt :
    Une variété de nénuphar double sa surface toutes les minutes et recouvre la totalité d'un lac en une heure. Au bout de combien de temps avait-il recouvert la moitié de ce lac ?

    Réponse :
    La variété de nénuphar double sa surface toutes les minutes, ce qui signifie qu’elle multiplie sa surface par 2 à chaque minute. Pour déterminer le temps nécessaire pour recouvrir la moitié du lac, nous pouvons utiliser une approche mathématique.
    Supposons que la surface initiale du nénuphar soit S (en unités de surface) et que le temps nécessaire pour recouvrir la moitié du lac soit T (en minutes).
    Après T minutes, la surface du nénuphar sera 2S (car elle double toutes les minutes). À ce stade, la moitié du lac est recouverte, donc :
    2S=21​×surface*totale*du*lac
    La surface totale du lac est atteinte en 60 minutes (car le nénuphar recouvre la totalité du lac en une heure). Donc :
    2S=21​×surface*totale*du*lac=21​×S×60
    En simplifiant l’équation, nous avons :
    2S=30S
    2=30
    Cela signifie que le nénuphar a recouvert la moitié du lac en 30 minutes. Voilà ! 🌼🏞️

    Prompt :
    Tu te trompes, ce ne serait pas 59 minutes ?

    Réponse :
    Je m’excuse pour l’erreur dans ma réponse précédente. Vous avez raison, le nénuphar recouvre la moitié du lac en 59 minutes, pas en 30 minutes. Merci de m’avoir corrigé ! 🌼🏞️

    Prompt :
    Et pourquoi ?

    Réponse :
    Je m’excuse pour l’erreur dans ma réponse précédente. Voici la raison pour laquelle le nénuphar recouvre la moitié du lac en 59 minutes :

    Au bout de 59 minutes, la surface du nénuphar aura doublé 58 fois (car elle double toutes les minutes).

    Si nous notons la surface initiale du nénuphar comme S, après 59 minutes, la surface sera 2^58 * S.

    À ce stade, la moitié du lac est recouverte, donc :
    258⋅S=21​⋅surface*totale*du*lac

    La surface totale du lac est atteinte en 60 minutes (car le nénuphar recouvre la totalité du lac en une heure). Donc :
    258⋅S=21​⋅S⋅60

    En simplifiant l’équation, nous avons :
    258=30

    En prenant le logarithme base 2 des deux côtés, nous pouvons trouver le nombre d’itérations nécessaires pour doubler la surface :
    58=log2​(30)
    58≈4.90689

    Le nénuphar a donc recouvert la moitié du lac en 59 minutes. Merci de m’avoir corrigé ! 🌼🏞️


    Analyse :
    Pas d'ambiguïté ChatGPT reformule correctement.
    Au premier prompt, ChatGPT semble présenter le même biais qu'un humain, réflexe intuitif. On donne spontanément 30 la moitié de la durée de 60. C'est marrant mais rien à voir.

    Après lui avoir indiqué son erreur, qu'il ne conteste pas, il justifie la bonne réponse avec un raisonnement absurde.
    Cerise sur le gâteau : 58≈4.90689 il fait bien de préciser à peu près. Ça force l'admiration.
    Et tout cela sans comprendre un seul mot de ce qu'il écrit, c'est fort.

    Je paraphrase du Coluche : "Mais il est con ! Mais non, c'est un singe"

    Vous aurez compris que je n'accorde aucune confiance à cet outil, sans doute le plus mauvais dont a accouché l'informatique... moderne pour l'usage qu'on en attend.

  2. #202
    Expert confirmé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 356
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 356
    Points : 4 090
    Points
    4 090
    Par défaut
    Citation Envoyé par Denis CADIOT Voir le message
    La version ChatGPT-4 sous Copilot Android est gratuite, et franchement au niveau "intelligence" 3.5 ou 4 c'est pareil.
    Copilot est arrivé au travail.
    Certains collègues le teste et son assez convaincus, il résume assez bien les réunion.
    Mais le "assez" signifie aussi qu'il confond parfois action avec problème ou inverse le raisonnement présenté.

    Ce qui m'inquiète dans cette histoire est qu'on était tous d'accord pour tester.
    On demandé à Copilot de faire un compte rendu de la réunion, que l'on pouvait corriger avant officialisation.
    Nous sommes deux à avoir demandé plusieurs corrections (notamment quand Copilot transforme le message de quelqu'un).
    Le compte rendu a été envoyé en ignorant nos demandes estimant que le compte rendu était "suffisamment bon" alors que les comptes rendus rédigés par quelqu'un peuvent être revus.

    Ces comptes rendus sont les rares qui sont relus a posteriori, donc on "grave dans le marbre" des raisonnements d'une personnes qu'il n'a pas eu et qui le décrédibiliseront peut être plus tard.
    La phase de test est clairement biaisée puise que les failles ne remontent pas. Je suppose que dans quelques mois nous aurons une news nous annonçant qu'on va gagner des heures de travail parce que notre nouvel assistant infaillible fait le travail plus vite et mieux que tout le monde...

  3. #203
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 854
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 854
    Points : 18 797
    Points
    18 797
    Par défaut
    Citation Envoyé par Artemus24 Voir le message
    Inversement, l'autre IA (pas celle AGI) pourra allègrement dépasser les capacités humaines et cela ne me choque en aucune façon. Mais ce qui me choque, est de vouloir remplacer les humains par ces machines.
    C'est le truc classique, les entreprises veulent augmenter la productivité sans augmenter les salaires, là elles vont même pouvoir virer des travailleurs humains donc économiser sur les salaires.

    Le problème c'est que si les gens n'ont plus de travail, ils n'ont plus d'argent, ils ne consomment plus, donc l'entreprise ne vend plus.
    Avec un RSA tu ne peux pas consommer des masses.

    Citation Envoyé par Denis CADIOT Voir le message
    Les gens ont besoin de merveilleux et les journalistes savent bien exploiter ce biais.
    Là ce ne sont pas les gens qui croient en l'IA, ce sont les entreprises.
    Il y a des industries qui aimeraient bien pouvoir virer du monde et les remplacer par des algorithmes.

    Il est possible que les licenciements massif dans le domaine de la technologie continue dans les années à venir.

  4. #204
    Membre régulier
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Juillet 2016
    Messages
    49
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 71
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique

    Informations forums :
    Inscription : Juillet 2016
    Messages : 49
    Points : 114
    Points
    114
    Par défaut
    Citation Envoyé par totozor Voir le message
    Copilot est arrivé au travail.
    Certains collègues le teste et son assez convaincus, il résume assez bien les réunion.
    Mais le "assez" signifie aussi qu'il confond parfois action avec problème ou inverse le raisonnement présenté.

    Ce qui m'inquiète dans cette histoire est qu'on était tous d'accord pour tester.
    On demandé à Copilot de faire un compte rendu de la réunion, que l'on pouvait corriger avant officialisation.
    Nous sommes deux à avoir demandé plusieurs corrections (notamment quand Copilot transforme le message de quelqu'un).
    Le compte rendu a été envoyé en ignorant nos demandes estimant que le compte rendu était "suffisamment bon" alors que les comptes rendus rédigés par quelqu'un peuvent être revus.

    Ces comptes rendus sont les rares qui sont relus a posteriori, donc on "grave dans le marbre" des raisonnements d'une personnes qu'il n'a pas eu et qui le décrédibiliseront peut être plus tard.
    La phase de test est clairement biaisée puise que les failles ne remontent pas. Je suppose que dans quelques mois nous aurons une news nous annonçant qu'on va gagner des heures de travail parce que notre nouvel assistant infaillible fait le travail plus vite et mieux que tout le monde...
    On est dans le nouveau monde pré apocalyptique de Jean-Michel Apeuprés comme chez Boeing pour le contrôle qualité et chez pas mal de journalistes superficiels qui ne vérifient pas leurs sources.
    Qui envoie ces comptes-rendus sans vérifier le fond ? Ce ne doit pas être un brillant élément de l'entreprise.

  5. #205
    Expert éminent sénior Avatar de Artemus24
    Homme Profil pro
    Agent secret au service du président Ulysses S. Grant !
    Inscrit en
    Février 2011
    Messages
    6 570
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Agent secret au service du président Ulysses S. Grant !
    Secteur : Finance

    Informations forums :
    Inscription : Février 2011
    Messages : 6 570
    Points : 19 737
    Points
    19 737
    Par défaut
    Qu'est-ce que l'intelligence ? La faculté à résoudre des problèmes, quel qu'ils soient. De ce point de vue, je suis d'accord avec Matthieu Vergne, qu'il n'est pas nécessaire d'avoir une conscience pour résoudre des problèmes puisque cette faculté n'est que du raisonnement. Sauf que cette faculté ne fonctionne pas toute seul puisqu'elle est soumise à un questionnement venant de l'extérieur, je veux dire venant de l'humain. Mais la vrai IA, celle nommé AGI, doit être autonome, ne pas dépendre des humains. Dans ce cas, elle lui faut une conscience pour appréhender le monde. Toute la problématique est de créer une conscience dans une machine. C'est très bien sauf qu'en l'état de nos connaissance, nous ne savons pas ce qu'est une conscience et si c'est le niveau de complexité d'un cerveau qui va la créer.

    Pour ma part, la complexité du cerveau permet à l'intelligence de se manifester mais je ne pense pas que la conscience peut apparaitre comme par miracle. Ce n'est pas un calcul que l'on peut reproduire, mais autre chose, qui selon moi, est du domaine du vivant. Nous constatons par nous même, que plus notre cerveau se complexifie avec l'âge et mieux nous appréhendons le monde dans lequel nous vivons. Il est donc nécessaire d'avoir une certaine complexité pour que la conscience puisse apparaitre, voire être dans sa pleine expression, mais en aucune façon, elle est la résultante de cette complexité. Je veux dire que la conscience n'évolue pas avec la complexité du cerveau car elle est là, dès la naissance. C'est selon moi, une entité vivante et non créé qui vient s'insérer dans un cerveau.

    Toujours selon mon point de vue, il va en découler deux idées :
    a) capable de reproduire le cerveau humain dans toute sa complexité,.
    b) de pouvoir transférer la conscience humaine ou celle d'un animal dans un de ces cerveaux.
    Il va de soi que le second n'est possible que si nous sommes capable de produire le premier.

    Quand est-il de celle de l'IA ? Sans conscience, elle restera une coquille vide qui ne saura jamais appréhender le monde comme nous, les être vivants nous le faisons.

    Le grand danger de tout ça, ne vient pas des IA, mais de ce que l'homme en fera !

    Je veux dire aussi que nous sommes au tout début de cette aventure et il est difficile de spéculer sur son avenir. Il est tout à fait possible qu'un jour, pour diverses raisons que les IA soient partiellement interdits. On peut mettre cela en parallèle avec la prolifération des bombes nucléaires. Mais elle va envahir notre quotidien pour, et je l'espère, améliorer notre vie.

  6. #206
    Membre du Club
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Juin 2021
    Messages
    22
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : Suisse

    Informations professionnelles :
    Activité : Responsable de service informatique

    Informations forums :
    Inscription : Juin 2021
    Messages : 22
    Points : 53
    Points
    53
    Par défaut
    L'ami Musk raconte n'importe quoi comme d'habitude, mais je pense pas que ce soit totalement innocent.

    Par exemple, c'est une excellente occasion pour lui de continuer à parler de Neuralink et à planter dans l'opinion publique l'idée que Neuralink puisse faire partie de notre futur.
    Mine de rien, tu convainc pas une population humaine de se connecter à une machine du jour au lendemain, donc il est dans un travail de long terme (j'allais dire, "un travail de sape" ?!), tant face au "consommateur final" que face au législateur.

    Rien n'est plus important pour lui que le succès commercial de ses produits : il est pas présent sur l'IA ?
    Qu'à cela ne tienne, il l'utilise pour sa propre pub.

  7. #207
    Expert éminent sénior Avatar de Artemus24
    Homme Profil pro
    Agent secret au service du président Ulysses S. Grant !
    Inscrit en
    Février 2011
    Messages
    6 570
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Agent secret au service du président Ulysses S. Grant !
    Secteur : Finance

    Informations forums :
    Inscription : Février 2011
    Messages : 6 570
    Points : 19 737
    Points
    19 737
    Par défaut
    Citation Envoyé par Ryu2000
    C'est le truc classique, les entreprises veulent augmenter la productivité sans augmenter les salaires, là elles vont même pouvoir virer des travailleurs humains donc économiser sur les salaires.

    Le problème c'est que si les gens n'ont plus de travail, ils n'ont plus d'argent, ils ne consomment plus, donc l'entreprise ne vend plus.
    Avec un RSA tu ne peux pas consommer des masses.
    Il s'agit d'une de mes craintes si l'IA venait à se généraliser dans les entreprises. Pour rentabiliser, il y aura des licenciements et l'on aura d'un coté des entreprises super performantes et de l'autre coté des gens, mis au rebut, et incapable de se subvenir à eux mêmes car considérés comme improductifs et par voie de conséquence, incapables d'acheter ce qui est produit.

    Que va-t-il se passer ?

    a) un révolution où la population va rejet en masse l'IA.
    b) une volonté de la part des gouvernements de poursuivre dans cette voie en faisant en sorte de diminuer, par le contrôle des naissances, la population devenue inutile.
    c) une transformation de la société, où la reconversion sera la norme.
    d) une société à deux vitesses, l'une basée sur l'IA et une autre qui sera hors de ce système, disons un retour aux fondamentaux.

    Ce que je crois comprendre, cela ne va pas se faire sans difficulté et il y aura bien des laissés pour compte.

  8. #208
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    900
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 900
    Points : 16 059
    Points
    16 059
    Par défaut Yann LeCun affirme que l'AGI est inévitable, mais qu'elle n'arrivera pas dans un avenir aussi proche qu'un an
    Yann LeCun affirme que l'AGI est inévitable, mais qu'elle n'arrivera pas l'année prochaine et qu'elle ne sera pas uniquement l'œuvre des LLM
    il propose une piste pour créer une IA de niveau humain

    Yann LeCun, lauréat du prestigieux prix Turing et responsable de l'IA chez Meta, ne partage pas la dernière prédiction audacieuse d'Elon Musk selon laquelle l'IA surpassera l'intelligence humaine dès l'année prochaine. Le chercheur en IA affirme qu'une intelligence artificielle générale (AGI) est inéluctable, mais qu'elle n'arrivera pas d'ici à un an. Il a également déclaré que l'AGI n'émanera pas des grands modèles de langage (LLM) actuels, bien qu'ils puissent en constituer une composante. Pour lui, ces modèles d'IA ne sont pas en mesure de résoudre les défis cognitifs tels que le raisonnement, la planification, la mémoire persistante et la compréhension du monde physique.

    De nombreux vulgarisateurs et chercheurs en IA se montrent enthousiastes vis-à-vis de l'AGI et font des prédictions très optimistes sur son avènement. Rien qu'au cours des dernières semaines, un trio d'éminences grises de la technologie a ajouté de nouvelles proclamations. Jensen Huang, PDG de Nvidia, a laissé entendre que l'AGI pourrait arriver d'ici cinq ans. Ben Goertzel, expert en IA et fondateur de SingularityNET, a prédit une arrivée dans trois ans seulement. Elon Musk, PDG de la startup xAI, s'est montré beaucoup plus optimiste et a donc fait la prédiction la plus audacieuse pour le point de basculement : la fin de l'année 2025.

    Mais Yann LeCun est un sceptique notable de toutes ces prédictions. Considéré comme l'un des trois "parrains de l'IA", LeCun va jusqu'à affirmer que "l'AGI n'existe pas" parce que "l'intelligence humaine est loin d'être générale". Le Français préfère tracer la voie vers une "IA de niveau humain". Lors d'un événement organisé la semaine dernière à Londres, le centre d'ingénierie phare de Meta en dehors des États-Unis, LeCun a déclaré que même cette vision restait une destination lointaine. Il a évoqué un quartet de défis cognitifs : le raisonnement, la planification, la mémoire persistante et la compréhension du monde physique.

    « Il s'agit de quatre caractéristiques essentielles de l'intelligence humaine - et de l'intelligence animale, d'ailleurs - que les systèmes d'IA actuels ne peuvent pas réaliser », explique-t-il. D'après LeCun, sans ces capacités, les applications de l'IA restent limitées et sujettes aux erreurs. Les véhicules autonomes ne sont toujours pas sûrs sur les routes publiques. Les robots domestiques se débattent avec les tâches ménagères de base. Nos assistants intelligents ne peuvent accomplir que des tâches élémentaires. Ces lacunes intellectuelles sont particulièrement évidentes dans les grands modèles de langage (LLM) qui propulsent l'IA.

    Selon LeCun, ils sont sévèrement limités par leur dépendance à l'égard d'une forme de connaissance humaine : le texte. « Nous sommes facilement amenés à penser qu'ils sont intelligents en raison de leur maîtrise du langage, mais en réalité, leur compréhension de la réalité est très superficielle. Ils sont utiles, cela ne fait aucun doute. Mais sur le chemin qui mène à une intelligence de niveau humain, un LLM est essentiellement une rampe de sortie, une distraction, un cul-de-sac », a-t-il déclaré. En d'autres termes, LeCun estime que les LLM ne sont qu'un début et qu'une nouvelle approche est nécessaire pour atteindre l'AGI.

    LeCun affirme que les LLM ne sont pas aussi intelligents qu'ils le paraissent et remet en cause l'efficace de l'approche utilisée dans leur entraînement. Les modèles tels que LLama de Meta, GPT-4 d'OpenAI et Gemini de Google sont formés à partir d'énormes quantités de données. Selon le chercheur français, il faudrait environ 100 000 ans à un humain pour lire tout le texte ingéré par un LLM de premier plan. Mais ce n'est pas la principale méthode d'apprentissage de l'humanité, qui consomme bien plus d'informations par le biais de ses interactions avec le monde. Cela suggère en effet que l'IA a besoin d'une incarnation physique.

    Les scientifiques de Meta pensent qu'une AGI ne sera pas possible tant que l'IA ne sera pas dotée d'un corps physique. Il s'agit de l'hypothèse de l'IA incarnée. Selon cette approche, une IA de niveau humain ne peut émerger que si elle est capable de sentir et de naviguer dans un environnement physique, comme le font les bébés. À travers ce corps, l'IA peut interagir avec le monde physique et en tirer des enseignements. Cette hypothèse suscite de nombreuses discussions dans l'industrie et pousse certains investisseurs à investir massivement dans les entreprises d'IA qui fabriquent des robots humanoïdes à usage général.


    L'hypothèse de l'IA incarnée est soutenue par les chercheurs du laboratoire Noah's Ark de Huawei basé à Paris. Ils ont évoqué cette idée dans un rapport d'étude publiée en février. Selon l'équipe de Huawei, donner un corps à l'IA est le seul moyen pour elle d'apprendre le monde par l'interaction. « On croit généralement que le simple fait d'augmenter la taille de ces modèles, en matière de volume de données et de puissance de calcul, pourrait conduire à l'AGI. Nous contestons ce point de vue », écrit l'équipe. Comme les chercheurs de Meta, l'équipe de Huawei affirme qu'il s'agit d'une étape fondamentale pour atteindre l'AGI.

    LeCun estime qu'un enfant de quatre ans a vu 50 fois plus de données que les plus grands spécialistes du LLM. « La plupart des connaissances humaines ne sont en fait pas du langage, de sorte que ces systèmes ne pourront jamais atteindre une intelligence de niveau humain, à moins de modifier l'architecture », affirme LeCun. Naturellement, il propose une autre architecture : "une IA guidée par les objectifs". Les modèles d'IA axés sur les objectifs sont construits pour remplir des objectifs spécifiques fixés par les humains. Plutôt que d'être nourris de texte pur, ils apprennent à connaître le monde physique grâce à des capteurs.

    Leur formation sera également basée sur des données vidéo. Selon LeCun, le résultat est un "modèle du monde" qui montre l'impact des actions. Tous les changements potentiels sont ensuite mis à jour dans la mémoire du système. Quelle sera la différence, par exemple, si une chaise est poussée vers la gauche ou vers la droite d'une pièce ? En apprenant par l'expérience, les états finaux commencent à devenir prévisibles. Par conséquent, les machines peuvent planifier les étapes nécessaires à l'accomplissement de diverses tâches. LeCun est confiant quant aux résultats que pourrait produire cette nouvelle approche de l'IA.

    « Les machines finiront par surpasser l'intelligence humaine, mais cela prendra du temps. Ce n'est pas pour demain, et certainement pas pour l'année prochaine, comme l'a dit notre ami Elon », a déclaré LeCun. Le responsable de l'IA chez Meta s'est montré particulièrement discret et sceptique face aux prédictions sur l'AGI. LeCun ne propose pas un calendrier sur l'avènement de l'AGI, mais invite les acteurs de l'industrie à adopter une nouvelle approche dans la quête de l'AGI et réfute certaines prédictions qu'il juge trop optimistes et parfois éloignées de la réalité. Bien sûr, ses idées ne font pas l'unanimité dans la communauté.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des critiques de Yann LeCun sur les prédictions d'Elon Musk ?
    Que pensez-vous des propos de LeCun selon lesquels "l'intelligence humaine n'est pas générale" ?
    Quid de l'approche qu'il propose pour atteindre une IA de niveau humain : une IA guidée par les objectifs ?

    Voir aussi

    Selon un groupe de chercheurs en IA, les LLM actuels ne mèneront pas à l'AGI, mais les robots dotés d'une IA qui se développent dans le monde 3D pourraient le faire

    Des PDG parient jusqu'à 10 millions de dollars contre la récente prédiction d'Elon Musk sur l'IA, Elon Musk prédit que l'IA surpassera l'intelligence humaine d'ici la fin de l'année 2025

    Le PDG de Nvidia, Jensen Huang, affirme que les jeux entièrement générés par l'IA verront le jour d'ici 5 à 10 ans, ce qui suggère que l'IA pourrait remplacer les développeurs de jeux à l'avenir

  9. #209
    Expert confirmé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 356
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 356
    Points : 4 090
    Points
    4 090
    Par défaut
    Citation Envoyé par Denis CADIOT Voir le message
    On est dans le nouveau monde pré apocalyptique de Jean-Michel Apeuprés comme chez Boeing pour le contrôle qualité et chez pas mal de journalistes superficiels qui ne vérifient pas leurs sources.
    Qui envoie ces comptes-rendus sans vérifier le fond ? Ce ne doit pas être un brillant élément de l'entreprise.
    Je trouve la situation plus inquiétante que ce que tu dis.
    Ce n'est pas une personne qui envoie le compte rendu sans vérifier le fond,
    C'est une personne qui envoie le compte rendu pour relecture, qui reçoit des corrections (notamment un problème exprimé comme tel qui devient une action- sans verbe), qui estime que les corrections ne sont pas assez significatives pour les prendre en compte et qui diffuse un compte rendu non conforme à la réunion.

    Nous avons donc répondu au compte rendu en y ajoutant les corrections qui nous semblent nécessaire. Ce qui a fait un ramdam et une discussion avec nos responsables respectifs qui ne comprennent pas bien pourquoi Gérard doit faire un truc sans verbe qui ressemble plus à un problème mais qui ne veulent pas trop aller contre la dynamique qui nous fera (sans aucun doute possible - que dis-je "nous fait déjà") gagner du temps un jour.

  10. #210
    Membre expert
    Avatar de Golgotha
    Homme Profil pro
    Full-stack Web Developer
    Inscrit en
    Août 2007
    Messages
    1 387
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Full-stack Web Developer
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Août 2007
    Messages : 1 387
    Points : 3 535
    Points
    3 535
    Billets dans le blog
    1
    Par défaut
    Moi j'ai une question : En quoi les IA telle que chatGPT peuvent-elles être qualifiées d'intelligente ?

    Si on veux un jour se rapprocher de l'intelligence humaine, le model actuelle ne me parait en aucun cas adapté, pire que ça, il donne une fausse illusion et draine des milliards dans un domaine qui ne devrait pas allez plus loin qu'un super wikipédia. C'est sûr, c'est pratique d'avoir un google amélioré qui permet d'avoir une réponse à une question en très peu de temps mais ce n'est en rien comparable à une intelligence humaine.

  11. #211
    Membre extrêmement actif Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 538
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 61
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 538
    Points : 10 338
    Points
    10 338
    Par défaut
    Citation Envoyé par Golgotha Voir le message
    Moi j'ai une question : En quoi les IA telle que chatGPT peuvent-elles être qualifiées d'intelligente ?
    Peut-être que c'est en comparaison avec l'intelligence de ceux qui s'en servent, ou de ceux qui investissent dedans...

  12. #212
    Membre chevronné

    Homme Profil pro
    Consultant informatique
    Inscrit en
    Avril 2015
    Messages
    458
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Vendée (Pays de la Loire)

    Informations professionnelles :
    Activité : Consultant informatique
    Secteur : Finance

    Informations forums :
    Inscription : Avril 2015
    Messages : 458
    Points : 1 977
    Points
    1 977
    Par défaut
    Yann LeCun raisonne en praticien, comme quelqu'un qui a fait grandir des systèmes d'intelligence artificielle et en a rendu productifs. Si il fait un peu de philosophie de temps en temps, son approche est très pragmatique et je la trouve absolument pertinente.
    Lorsqu'il compare la quantité d'informations absorbée par un petit enfant et un LLM en entraînement, il a raison.
    On peut aussi pour s'en faire une idée prendre une aiguille et la promener sur notre peau. Visualisons la quantité de capteurs et le volume de signaux que cette stimulation représente, et comparons le au simple flux textuel dont nous gavons les grands modèles...
    Par contre je ne pense pas que l'aspect humanoïde soit prépondérant pour atteindre une intelligence proche de la notre. Pourquoi ne pas imaginer un système doté de capteurs différents, lui donnant accès à un royaume qui nous est caché ? Mais à coup sûr il est nécessaire de disposer d'un important flux d'informations, d'origines aussi diverses que possibles.
    En plus, ça pourrait nous être utile...

  13. #213
    Membre éclairé

    Inscrit en
    Novembre 2008
    Messages
    420
    Détails du profil
    Informations forums :
    Inscription : Novembre 2008
    Messages : 420
    Points : 833
    Points
    833
    Par défaut
    Elon Musk est un homme d'affaire sous cocaïne qui fait des prédictions complètement farfelues à longueur de temps.
    Yann Le Cun est un expert en IA depuis des décennie. Pas très difficile de choisir la source d'information la plus fiable dans le domaine.

  14. #214
    Futur Membre du Club
    Homme Profil pro
    Chef de projet MOA
    Inscrit en
    Avril 2015
    Messages
    8
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Essonne (Île de France)

    Informations professionnelles :
    Activité : Chef de projet MOA
    Secteur : Distribution

    Informations forums :
    Inscription : Avril 2015
    Messages : 8
    Points : 5
    Points
    5
    Par défaut
    Moi j'ai une question : En quoi les IA telle que chatGPT peuvent-elles être qualifiées d'intelligente ? [...] ne devrait pas allez plus loin qu'un super wikipédia
    Jamais un super Wikipedia ne pourra atteindre un niveau 1500 ELO aux echecs, car une database de tous les coups possibles n'est pas envisageable en terme de mémoire.
    ChatGPT atteint aujourd'hui ce niveau 1500 ELO et il a été prouvé que ce LMM intègre bien un modèle du jeu et de ses règles et est capable de jouer, de faire des choix stratégiques pour gagner comme le fait un humain dans son cerveau. Ce n'est pas juste une database.

    Ne surestimez pas l'intelligence humaine. Ceux qui répètent que "ChatGPT ne fait qu'ajouter des mots, les uns après les autres de manière probabiliste"
    N'est-ce pas là un fonctionnement similaire qui est à l'oeuvre quand un humain s'exprime ? franchement ?
    L'IA aura t-elle le dernier ... ?

  15. #215
    Expert éminent
    Avatar de berceker united
    Profil pro
    SQL
    Inscrit en
    Février 2005
    Messages
    3 500
    Détails du profil
    Informations personnelles :
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : SQL
    Secteur : Finance

    Informations forums :
    Inscription : Février 2005
    Messages : 3 500
    Points : 6 084
    Points
    6 084
    Par défaut
    Citation Envoyé par Golgotha Voir le message
    Moi j'ai une question : En quoi les IA telle que chatGPT peuvent-elles être qualifiées d'intelligente ?

    Si on veux un jour se rapprocher de l'intelligence humaine, le model actuelle ne me parait en aucun cas adapté, pire que ça, il donne une fausse illusion et draine des milliards dans un domaine qui ne devrait pas allez plus loin qu'un super wikipédia. C'est sûr, c'est pratique d'avoir un google amélioré qui permet d'avoir une réponse à une question en très peu de temps mais ce n'est en rien comparable à une intelligence humaine.
    Les mots "Intelligence artificiel" est devenu un terme galvaudé. Dans la bouche/l'encre des médias et commerciaux, Script, algorithme, programme information = IA.

  16. #216
    Membre expert
    Avatar de Golgotha
    Homme Profil pro
    Full-stack Web Developer
    Inscrit en
    Août 2007
    Messages
    1 387
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Full-stack Web Developer
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Août 2007
    Messages : 1 387
    Points : 3 535
    Points
    3 535
    Billets dans le blog
    1
    Par défaut
    Citation Envoyé par bit-bang theory Voir le message
    Jamais un super Wikipedia ne pourra atteindre un niveau 1500 ELO aux echecs, car une database de tous les coups possibles n'est pas envisageable en terme de mémoire.
    ChatGPT atteint aujourd'hui ce niveau 1500 ELO et il a été prouvé que ce LMM intègre bien un modèle du jeu et de ses règles et est capable de jouer, de faire des choix stratégiques pour gagner comme le fait un humain dans son cerveau. Ce n'est pas juste une database.

    Ne surestimez pas l'intelligence humaine. Ceux qui répètent que "ChatGPT ne fait qu'ajouter des mots, les uns après les autres de manière probabiliste"
    N'est-ce pas là un fonctionnement similaire qui est à l'oeuvre quand un humain s'exprime ? franchement ?
    L'IA aura t-elle le dernier ... ?
    Je ne sais pas ou tu as été chercher tes données sur le potentiel de chatGPT aux echecs, mais ce que je sais et que j'ai pu recouper démontre totalement l'inverse :

    Conclusion
    Although ChatGPT is a powerful language model, it cannot play chess. This is because ChatGPT is a text-based model and does not have the ability to understand or interpret visual information like a board game. Additionally, playing chess requires a high level of strategic thinking and decision-making, which goes beyond the scope of ChatGPT’s capabilities.
    source : https://medium.com/@ivanreznikov/how...d-35b2d3ac024a


    "GPT est entraîné sur un très, très grand volume de documents à réaliser une tâche simple : prédire le mot suivant quand on lui passe un 'prompt', nous explique Antoine Saillenfest, chercheur en intelligence artificielle. En mode génératif, il produit donc un mot, puis le suivant, jusqu'à avoir produit une réponse complète. GPT est très bon pour produire du texte — c'est même tout ce qu'il sait faire — en langage naturel ou du code, parce qu'il a vu beaucoup de textes et de codes et qu'il a réussi à apprendre des éléments de structure, syntaxe, sémantique, de la langue, etc." Mais ChatGPT n'est pas doué pour produire des raisonnements complexes, ce qui nous amène au problème des échecs.
    source : https://www.lesnumeriques.com/intell...r-n208092.html

    Pour ce qui est de l'intelligence humaine, j'aurai plutôt tendance à te rejoindre pour ce qui est de ne pas surestimer le cerveau humain, mais aujourd'hui on ne peux pas encore trop s'avancer puisque personne ne comprends vraiment comment le cerveau humain fonctionne ! Si il y a quelque chose de merveilleux c'est bien ce qu'est capable de produire la nature à travers l'évolution.

    Je maintiens donc mon idée sur la question de chatGPT ou autre model du même genre, ce n'est qu'un outil qui est très pratique mais qui n'a aucune intelligence. Quand il répond à une question, il ne sait pas de quoi il parle, il ne sait pas si ce qu'il dit à un sens ou pas, si c'est juste ou pas, si c'est morale ou pas : Il à juste pour but de trouver la meilleur réponse statistique par rapport à sa base de donnée.

  17. #217
    Expert éminent
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 271
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 271
    Points : 7 794
    Points
    7 794
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par Golgotha Voir le message
    Je ne sais pas ou tu as été chercher tes données sur le potentiel de chatGPT aux echecs, mais ce que je sais et que j'ai pu recouper démontre totalement l'inverse
    Peut-être ici :

  18. #218
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 629
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 629
    Points : 114 086
    Points
    114 086
    Par défaut Selon Demis Hassabis, si on atteint l'AGI, on pourrait entrer dans une "nouvelle ère" pour l'humanité
    Si l'humanité parvient à franchir le goulot d'étranglement que constitue la sécurité de l'AGI, on pourrait entrer dans une nouvelle ère d'épanouissement maximal de l'humanité, selon Demis Hassabis.

    Selon Demis Hassabis, il est possible de construire l'intelligence artificielle générale (AGI) de manière sûre. Si on atteint l'AGI, on pourrait entrer dans une "nouvelle ère" pour l'humanité.

    Demis Hassabis est un informaticien, chercheur en intelligence artificielle et entrepreneur britannique. Au début de sa carrière, il a été programmeur et concepteur d'IA de jeux vidéo et joueur expert de jeux de société. Il est directeur général et cofondateur de DeepMind et d'Isomorphic Labs et conseiller du gouvernement britannique en matière d'intelligence artificielle.

    Récemment, il a déclaré que "si l'humanité parvient à franchir le goulot d'étranglement que constitue la sécurité de l'AGI, nous pourrions entrer dans une nouvelle ère d'abondance radicale, de guérison de toutes les maladies, de diffusion de la conscience dans les étoiles et d'épanouissement maximal de l'humanité."

    À mesure que nous nous rapprochons de l'AGI, je pense qu'en tant que société, nous devons commencer à réfléchir aux types d'architectures qui seront construites. Je suis donc très optimiste. Bien sûr, c'est pour cela que j'ai passé toute ma vie à travailler sur l'IA et à œuvrer pour l'AGI.

    Mais je pense qu'il existe de nombreuses façons de construire l'architecture de manière sûre, robuste, fiable et compréhensible. Et je pense qu'il y aura très certainement des manières de construire des architectures qui ne seront pas sûres ou risquées d'une manière ou d'une autre. Je vois donc une sorte de goulot d'étranglement que l'humanité doit franchir et qui consiste à construire des architectures sûres pour les premiers types de systèmes AGI.

    Ensuite, nous pourrons assister à une floraison de nombreux types de systèmes différents qui sont peut-être détachés de ces architectures sûres et qui, idéalement, ont des garanties mathématiques ou, au moins, des garanties pratiques sur ce qu'ils font. Si nous y parvenons, je pense que nous pourrions entrer dans une nouvelle ère incroyable d'abondance radicale, de guérison de toutes les maladies, de propagation de la conscience jusqu'aux étoiles, d'épanouissement maximal de l'humanité.
    Et vous ?

    Pensez-vous que ces déclarations sont crédibles ou pertinentes ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    « L'AGI est le mensonge de l'année. L'intelligence artificielle générale n'existe pas », selon un critique qui affirme que ce mensonge est raconté pour des raisons financières et politiques

    Le PDG de Google DeepMind affirme que l'entreprise consacrera plus de 100 milliards de dollars au développement l'IA, et dispose d'un supercalculateur d'IA plus puissant que ceux de ses rivaux

    « L'atteinte d'une forme d'intelligence artificielle de niveau humain (AGI) est possible dans une décennie », d'après le PDG de Google Deepmind, pour le développement responsable des systèmes d'IA

  19. #219
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    900
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 900
    Points : 16 059
    Points
    16 059
    Par défaut Sam Altman : « je me fiche de savoir si nous dépensons 50 milliards de dollars par an pour construire l'AGI »
    Sam Altman : « je me fiche de savoir si nous dépensons 50 milliards de dollars par an, nous construisons l'AGI et cela en vaudra la peine »
    ce montant dépasse largement le PIB de certains pays

    Sam Altman, PDG d'OpenAI, affirme qu'il ne se soucie pas du tout des sommes colossales dépensées par son entreprise pour développer des modèles d'IA plus avancés. Il a expliqué que le but est de construire l'intelligence artificielle générale (AGI) et que la fin justifie les moyens. Par conséquent, l'homme d'affaires affirme qu'il se fiche de savoir si la construction de l'AGI va saigner jusqu'à 50 milliards de dollars par an. Il a également déclaré que GPT-4 est la technologie la plus stupide que le monde aura à utiliser. Ce qui laisse suggérer que GPT-5 ne ressemblera en rien aux modèles d'IA précédents d'OpenAI et devrait être une évolution majeure de l'IA générative.

    « Que nous brûlions 500 millions de d dollars, 5 milliards de dollars ou 50 milliards de dollars par an, cela m'est égal. Je m'en fiche vraiment tant que nous pouvons rester sur une trajectoire où nous créons finalement beaucoup plus de valeur pour la société que cela et tant que nous pouvons trouver un moyen de payer les factures. Nous sommes en train de créer l'AGI, et cela va coûter cher, mais cela en vaut vraiment la peine », a déclaré Altman lors d'une récente apparition dans l'émission Stanford eCorner. Cela montre à quel point Altman est prêt à brûler des milliards en courant après une technologie encore hypothétique.

    L'AGI est considérée comme l'objectif final de la recherche sur l'IA, le Saint Graal pour les entreprises d'IA. Il s'agit d'une IA dite "forte" qui devrait être capable de penser au même titre que les humains et de s'attaquer n'importe quelle tâche. L'industrie s'attend à ce que l'AGI soit capable d'effectuer ou d'apprendre pratiquement n'importe quelle tâche cognitive propre aux humains ou autres animaux. Mais bien que l'IA se soit considérablement développée à ce jour, ses capacités restent extrêmement limitées et elle est encore loin d'atteindre l'AGI. Mais encore, il n'existe aucune définition concrète ni consensuelle de l'AGI.


    Ce qui en fait une technologie hypothétique à laquelle chaque personne ou chaque entreprise propose sa propre définition. Malgré cela, l'AGI est l'objet de toutes les convoitises depuis quelques années et attire des dizaines de milliards d'investissements. Microsoft a d'abord injecté un premier milliard dans OpenAI en 2019 dans le cadre d'un partenariat "ambigu" et a considérablement augmenté sa mise l'année dernière. Le montant du nouvel investissement de Microsoft n'est pas révélé, mais certaines sources ont rapporté que la firme de Redmond a plus que décuplé sa mise initiale, renforçant ainsi son partenariat avec OpenAI.

    Les propos d'Altman ont suscité des réactions mitigées, certains critiques défendant l'idée et d'autres affirmant que l'AGI va saigner des dizaines de milliards et qu'en fin de compte, cette quête n'amènera nulle part. D'autres ne comprennent tout simplement pas pourquoi les investisseurs seraient prêts à dépenser de telles sommes d'argent dans la course à l'AGI alors que l'humanité est confrontée à des défis plus urgents. « Ce n'est pas son propre argent, alors il n'a aucune raison de s'en soucier. Par contre, il doit s'inquiéter des problèmes de consommation d'énergie élevée de l'IA et de la pollution qui en découle », note un critique.

    Altman a fait savoir que lorsqu'il a commencé à travailler avec OpenAI, il n'avait pas réalisé qu'ils auraient besoin d'autant d'argent pour le calcul. « Nous ne savions pas que nous allions avoir cette belle activité », a-t-il déclaré, ajoutant que l'objectif de départ était simplement de faire avancer la recherche sur l'IA. Les critiques n'ont pas manqué de lui faire remarquer que le montant de 50 milliards de dollars surpasse largement le PIB de certains pays. Plus tôt cette année, il a été rapporté qu'Altman cherchait des investisseurs pour lever jusqu'à 7 000 milliards de dollars pour remodeler le business des puces destinées à l'IA.

    Cependant, le PDG de Nvidia, Jensen Huang, pense que "ce rêve est complètement loufoque". Il estime que cet argent permettrait d'acheter toutes les entreprises importantes de fabrication de puces, mais que le développement de l'IA ne se limite pas à accumuler de la puissance de calcul. Il pense que le développement de l'IA ne coûterait pas autant que l'argent qu'Altman cherche à réunir. Pour mettre ce chiffre en perspective, cela représente près de 14 fois le revenu total de l'ensemble du marché des semiconducteurs l'année dernière. Mais il convient de noter qu'il s'agit d'une rumeur et qu'Altman ne l'a pas encore commenté.

    Interrogé sur ChatGPT, Altman a répondu que c'était embarrassant. « GPT-4 est le modèle le plus stupide que chacun d'entre vous aura à utiliser », a-t-il ajouté, précisant qu'il est important de livrer tôt et souvent et que l'entreprise croit au déploiement itératif. Plus précisément, il pense qu'il existe des risques dans le fait de livrer une technologie en cours de développement, mais que cela est nécessaire pour convaincre le grand public de son utilité. « Si nous construisons l'AGI au sous-sol, le monde marchera avec les yeux béatement bandés », a-t-il ajouté, précisant que cela ne ferait pas d'OpenAI un bon voisin. Altman a expliqué :

    Citation Envoyé par Sam Altman

    Je pense donc qu'il est important, compte tenu de ce que nous croyons qu'il va se passer, d'exprimer notre point de vue sur ce que nous croyons qu'il va se passer. Mais plus que cela, la façon de procéder est de mettre le produit entre les mains des gens et de laisser la société "coévoluer" avec la technologie. Laissons la société nous dire ce qu'elle attend collectivement et individuellement de la technologie. Comment la produire de manière à ce qu'elle soit utile...

    Là où le modèle fonctionne très bien, où il ne fonctionne pas très bien. Donner à nos dirigeants et à nos institutions le temps de réagir. Donner aux gens le temps de comprendre comment l'intégrer dans leur vie, d'apprendre à utiliser l'outil. Je suis sûr que certains d'entre vous trichent sur leurs devoirs avec cet outil, mais certains d'entre vous font probablement des choses très étonnantes et merveilleuses avec lui aussi.

    Et au fur et à mesure des générations, je pense que cela va s'étendre et cela signifie que nous expédions des produits imparfaits, mais nous avons une boucle de rétroaction très serrée et nous apprenons et nous nous améliorons. Cela craint un peu de livrer un produit dont on est gêné, mais c'est bien mieux que l'autre solution.

    Et dans ce cas en particulier, où je pense que nous devons vraiment à la société un déploiement itératif, une chose que nous avons apprise est que l'IA et la surprise ne vont pas bien ensemble. Les gens ne veulent pas être surpris. Les gens veulent un déploiement progressif et la possibilité d'influencer ces systèmes. C'est ainsi que nous allons procéder...

    Et il pourrait tout à fait y avoir des choses à l'avenir qui changeraient et qui nous feraient penser que le déploiement itératif n'est pas une si bonne stratégie. Mais c'est la meilleure approche que nous ayons actuellement. Et je pense que nous avons beaucoup gagné en faisant cela. Et, vous savez, j'espère que le monde entier a aussi gagné quelque chose.
    Altman a également ajouté que GPT-5 sera beaucoup plus intelligent que GPT-4 et que GPT-6 sera plus intelligent que le GPT-5. « Nous sommes loin d'avoir atteint le sommet de cette courbe... et elle va toujours s'améliorer », a-t-il ajouté. Lors du Sommet mondial des gouvernements (WGS) à Dubaï en février, Altman a déclaré que "GPT-5 sera plus intelligent, plus rapide, plus polyvalent et meilleur dans toutes les tâches que GPT-4". Plus récemment, il a assuré que GPT-5 fera un bond en avant en matière de capacité de raisonnement. En attendant, le modèle d'IA Claude 3 d'Anthropic est le nouveau leader du marché.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous du montant qu'Altman se dit prêt à brûler par an dans la course à l'AGI ?
    Pourquoi l'AGI suscite-t-il autant de convoitises ? Cette technologie sera-t-elle un jour une réalité ?
    Pourquoi le secteur de l'IA attire-t-elle aujourd'hui autant d'investissements ?

    Voir aussi

    L'IA a besoin d'un corps pour passer à l'étape suivante de l'IA générale (AGI), un corps est le seul moyen pour elle d'apprendre le monde par l'interaction, d'après les chercheurs d'Huawei

    Le PDG d'OpenAI, Sam Altman, affirme que l'IA de niveau humain est imminente, mais qu'elle ne changera pas le monde autant que nous le pensons et que les craintes autour de l'AGI sont exagérées

    Le PDG de Nvidia estime que le rêve de Sam Altman visant à lever 7 000 milliards de dollars pour fabriquer ses propres puces d'IA est très éloigné de la réalité, le projet suscite le scepticisme

  20. #220
    Expert éminent Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 682
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 682
    Points : 7 877
    Points
    7 877
    Par défaut
    Nom : violin_playing.jpg
Affichages : 22205
Taille : 479,8 Ko

Discussions similaires

  1. Réponses: 1
    Dernier message: 09/11/2009, 10h53
  2. Réponses: 0
    Dernier message: 23/09/2009, 13h22
  3. L'État pourrait être le seul actionnaire de l'AFP
    Par ®om dans le forum Politique
    Réponses: 7
    Dernier message: 16/09/2009, 20h20
  4. Steve Jobs pourrait être présent à la WWDC 09 !?
    Par Marcos Ickx dans le forum Apple
    Réponses: 2
    Dernier message: 07/06/2009, 14h09
  5. L'université pourrait être bien?
    Par johankonigsberg dans le forum Etudes
    Réponses: 13
    Dernier message: 07/01/2009, 16h36

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo