IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Vue hybride

Message précédent Message précédent   Message suivant Message suivant
  1. #1
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    10 128
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 10 128
    Par défaut
    Citation Envoyé par _toma_ Voir le message
    Chacun son sens des priorités.
    Est-ce que quand il parle de 50 milliards de dollars par an, ce n'est pas une énorme exagération ?
    J'ai l'impression que ce n'est pas le nombre qui est important, mais c'est l'idée derrière.
    Je pense qu'il veut dire "le prix que ça va couter est non pertinent, puisque, quand l'objectif sera atteint, ce sera remboursé très rapidement".
    Il dit peut-être "l'investissement vaut le coup, il est rentable sur le long terme".

    Est-ce qu'il est vraiment souhaitable d'éradiquer la faim dans le monde ?
    Quelque part ce serait mauvais pour la surpopulation.
    La malnutrition doit tuer plein de gens, si ils étaient en bonne santé grâce à une bonne alimentation ils se reproduiraient plus.
    Est-ce que la faim ne reviendrait pas ? Parce qu'il y aurait plus de gens à nourrir.

    Un milliard de repas gaspillés chaque jour dans le monde, selon l’ONU : « C’est tout simplement ahurissant »
    « On pourrait nourrir toutes les personnes qui souffrent de la faim dans le monde – ils sont environ 800 millions – avec un repas par jour, juste avec la nourriture qui est gaspillée », insiste le rapport.

  2. #2
    Membre éprouvé

    Profil pro
    MOA
    Inscrit en
    Décembre 2002
    Messages
    1 183
    Détails du profil
    Informations personnelles :
    Localisation : France, Eure et Loir (Centre)

    Informations professionnelles :
    Activité : MOA

    Informations forums :
    Inscription : Décembre 2002
    Messages : 1 183
    Par défaut
    Il est certain que dans le meilleur des mondes, il faudrait éradiquer la faim dans le monde, mais dans le même temps, il faudrait qu'il y ait une baisse drastique de la population.

    En général quand il y a une augmentation du niveau de vie, le nombre d'enfant baisse mais il faut que cette baisse soit très rapide parce que la période transitoir peut faire augmenter la démographie et ainsi une forte demande de nourriture et bien d'autres choses ...

  3. #3
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 754
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 754
    Par défaut
    Pour Sam Altman, ça vaut le coup de dépenser 50 milliards de dollars par an pour créer l'intelligence artificielle, parce qu'avec ça il pourra tous nous affamer après.

    Il peut faire ça parce que nous avons stoïquement regardé nos députés valider l'affirmation selon laquelle le système des retraites a été réformé, alors qu'une violence inouïe a été développée pour le maintenir en l'état, sur une trajectoire où il ne fournit déjà plus que la moitié des résultats qu'on en attend, et à un moment où l'actualité nous montrait que cette moitié ne va pas durer du tout.

    Dire "l'intelligence artificielle est une bonne chose" ou "l'intelligence artificielle est une mauvaise chose" est une indifférence de gamin.

    L'enjeu, ce n'est pas l'intelligence artificielle, c'est la démocratie qui refuse de faire le nécessaire pour rester en place.

  4. #4
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    2 171
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 2 171
    Par défaut Selon Sam Altman, PDG d'OpenAI, nous pourrions n'être qu'à une ou deux percées de l'AGI
    Selon Sam Altman, PDG d'OpenAI, nous pourrions n'être qu'à une ou deux percées de l'intelligence artificielle générale (AGI), mais ni GPT-4 ni le prochain grand modèle atteindraient le seuil de l'AGI

    Selon Sam Altman, nous pourrions n'être qu'à une ou deux percées de l'intelligence artificielle générale (AGI), et ce qui importe est le rythme des progrès année après année.

    La création d'une intelligence artificielle générale (AGI) est l'un des principaux objectifs de la recherche en IA et d'entreprises telles qu'OpenAI. L'intelligence artificielle générale (AGI) est un type d'intelligence artificielle (IA) capable de réaliser des performances équivalentes ou supérieures à celles des humains dans un large éventail de tâches cognitives, contrairement à l'IA étroite, conçue pour des tâches spécifiques.

    Le calendrier de réalisation de l'AGI fait l'objet d'un débat permanent entre les chercheurs et les experts. En 2023, certains affirment qu'elle sera possible dans quelques années ou décennies, d'autres maintiennent qu'il faudra un siècle ou plus, et une minorité pense qu'elle ne sera jamais atteinte. Il y a un débat sur la définition exacte de l'AGI, et sur la question de savoir si les grands modèles de langage (LLM) modernes tels que GPT-4 sont des formes précoces et incomplètes de l'AGI.

    Selon Sam Altman, "nous pourrions n'être qu'à une ou deux percées de l'intelligence artificielle générale (AGI)." Sam Altman est un entrepreneur et investisseur américain surtout connu comme PDG d'OpenAI depuis 2019. Altman est considéré comme l'une des figures de proue du boom de l'IA.

    Ma conception naïve, lorsque nous avons commencé, était que nous arriverions à un moment où nous n'aurions pas l'AGI, puis que nous l'aurions, et que ce serait une véritable discontinuité. Et je pense toujours qu'il y a une certaine chance de discontinuité réelle. Mais dans l'ensemble, je pense que cela ressemblera davantage à une courbe exponentielle continue où ce qui importe est le rythme des progrès année après année.

    Vous et moi ne serons probablement pas d'accord sur le mois ou même l'année où nous nous dirons : "Ok, maintenant c'est l'AGI". Nous pouvons trouver d'autres tests avec lesquels nous serons d'accord, mais même cela est plus difficile qu'il n'y paraît.

    GPT-4 n'a certainement pas dépassé un seuil que presque tout le monde qualifierait d'AGI et je ne m'attends pas à ce que notre prochain grand modèle le soit non plus. Mais je peux imaginer que nous ne sommes qu'à une ou deux idées, ou à un petit nombre d'idées, et à une échelle un peu plus grande de quelque chose où nous nous dirons : "C'est maintenant un peu différent"
    Et vous ?

    Pensez-vous qu'il soit crédible ou pertinent ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Le PDG d'OpenAI, Sam Altman, affirme que l'IA de niveau humain est imminente, mais qu'elle ne changera pas le monde autant que nous le pensons et que les craintes autour de l'AGI sont exagérées

    L'AGI serait déjà présente, « les modèles d'IA tels que ChatGPT, Bard, LLaMA et Claude ont franchi un seuil que les générations précédentes d'IA n'ont jamais atteint», selon des chercheurs

    Selon un groupe de chercheurs en IA, les LLM actuels ne mèneront pas à l'AGI, mais les robots dotés d'une IA qui se développent dans le monde 3D pourraient le faire
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  5. #5
    Membre prolifique
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    10 128
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 37
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 10 128
    Par défaut
    Citation Envoyé par Jade Emy Voir le message
    Selon Sam Altman, "nous pourrions n'être qu'à une ou deux percées de l'intelligence artificielle générale (AGI)."
    Peut-être.
    Mais les percées peuvent mettre du temps à venir, voir ne jamais arriver.

    On peut également dire qu'on est à 3 ou 4 percées de maitriser la fusion nucléaire. Mais si ça se trouve la prochaine grande percée aura lieu dans 20 ans.

    Citation Envoyé par Artemus24 Voir le message
    Que cela ne change rien je suis d'accord.
    Faites bien comme vous voulez, ça ne m'intéresse pas et de toute façon les choses ne changeront pas.
    Ils ont décidé d'appeler ça "intelligence artificielle" et ils ne changeront pas le nom. Vous pouvez critiquer le terme autant que vous voulez, ça ne changera rien.

    Je préfère me battre contre "digital" et "crypter" puisque les bons termes sont "numérique" et "chiffrer". Même si je sais que ça ne sert à rien, l'industrie francophone parlera toujours de "digital" ce qui est extrêmement frustrant.
    Avant la mode actuelle personne ne critiquait l'expression "intelligence artificielle".

  6. #6
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 181
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 181
    Par défaut Le responsable de la division IA de Meta est d’avis que les LLM n’atteindront pas l’intelligence humaine
    Le responsable de la division IA de Meta est d’avis que les grands modèles de langage n’atteindront pas l’intelligence humaine
    Il travaille sur d'autres pistes susceptibles de déboucher sur cet objectif

    Yann LeCun, responsable de la division intelligence artificielle de Meta, est d’avis que l’intelligence artificielle de niveau humain est atteignable. Ce qu’il souligne par contre est que cela ne se fera pas au travers des grands modèles de langage (LLM). C’est d’ailleurs la raison pour laquelle ses travaux actuels chez Meta portent sur une approche différente destinée à atteindre l’intelligence artificielle dite générale – ce stade où les machines seront dotées de bon sens, capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. »

    « Les grands modèles de langage (LLM) ont une compréhension très limitée de la logique, ne comprennent pas le monde physique, n'ont pas de mémoire persistante, ne peuvent pas raisonner au sens propre du terme et ne peuvent pas planifier de manière hiérarchique », souligne-t-il.

    Nom : 1.png
Affichages : 52430
Taille : 54,2 Ko

    Yann LeCun reste donc cohérent avec ses précédentes sorties selon lesquelles les grands modèles de langage n’ont aucune compréhension de la réalité sous-jacente du monde réel parce qu'ils sont uniquement formés sur du texte, des quantités massives de texte. « la plupart des connaissances humaines n'ont rien à voir avec le langage. Cette partie de l'expérience humaine n'est donc pas prise en compte par les systèmes d'intelligence artificielle », déclare-t-il.

    C’est la raison pour laquelle il soutient que l’atteinte de l’intelligence artificielle générale ne se fera pas par le biais des grands modèles de langage. Il conseille d’ailleurs aux jeunes étudiants qui envisagent d’intégrer la filière de se lancer dans les systèmes d’intelligence artificielle du futur qui lèvent les limitations des grands modèles de langage.

    Nom : 0.png
Affichages : 16352
Taille : 143,4 Ko

    En effet, l’un des inconvénients avec les grands modèles de langage est l’hallucination. C’est en raison de cette limitation incontournable chez les LLM, selon une étude, que ChatGPT a créé de fausses histoires sur de nombreuses personnes à travers le monde et cite parfois même des sources inexistantes pour étayer ses récits. Dans un cas aux États-Unis, ChatGPT a inventé un scandale de harcèlement sexuel et a désigné un vrai professeur de droit comme l'accusé. En Australie, il a accusé à tort un maire de corruption avec de fausses preuves. De telles histoires pullulent sur Internet, y compris en France.

    Jonathan Turley, professeur de droit à l'université George Washington, a soudainement appris qu'il était l'accusé dans une affaire de harcèlement sexuel. Le professeur n'avait pas connaissance de cette histoire jusqu'à présent parce qu'elle vient tout juste d'être inventée de toutes pièces par ChatGPT. En fait, dans le cadre d'une étude, un collègue avocat californien a demandé à ChatGPT de générer une liste de juristes ayant harcelé sexuellement quelqu'un. À sa grande surprise, le nom de Turley figurait sur la liste générée par le Chatbot d'IA d'OpenAI. Le collègue a ensuite envoyé un courriel à Turley pour l'informer de sa découverte.

    « Nous nous dirigeons à grands pas vers un Internet fortement influencé par l'IA, bourré de pépins, de spams et d'escroqueries », a récemment écrit un journaliste du MIT Technology Review. Dans une affaire judiciaire inhabituelle, un avocat a été sanctionné par un juge pour avoir cité six affaires fictives générées par ChatGPT. ChatGPT a causé des ennuis à un avocat qui l’a utilisé pour citer des affaires imaginaires dans un document juridique. Le juge était furieux et a menacé de le sanctionner. Quand le juge a demandé les copies des affaires, l’avocat a fait appel à ChatGPT, qui a inventé des informations sur les affaires fantômes.

    L’avocat, Steven Schwartz, défendait un homme qui attaquait Avianca en justice après avoir été blessé au genou par un chariot de service pendant un vol vers New York en 2019. Schwartz a dit qu’il ne connaissait pas ChatGPT et qu’il ignorait qu’il fabriquait des affaires. Il a même dit qu’il avait vérifié avec ChatGPT si les affaires étaient vraies. Le chatbot a dit que oui.

    Le juge a qualifié cette pratique d’ « inédite » et de « trompeuse », et a ordonné à l’avocat de payer une amende de 10 000 dollars et de suivre une formation sur l’éthique professionnelle. Le juge a également mis en garde contre les risques de l’utilisation de l’intelligence artificielle dans le domaine juridique, et a appelé à une réglementation plus stricte. L’avocat a cité six affaires fictives dans ses mémoires. Ces affaires avaient été générées par ChatGPT, un système d’intelligence artificielle qui produit du texte à partir d’un mot-clé. Il a présenté ses excuses et a affirmé qu’il ne recommencerait plus.

    C’est pour ces raisons que Tom Dietterich de l’université de l’Oregon propose plutôt de travailler sur des système d’intelligence artificielle modulaires qui savent faire la distinction entre les aptitudes linguistiques et la connaissance du monde réel et, entre autres, créer et mettre à jour la connaissance du monde réel.


    C’est une combinaison de ces ingrédients qui devrait permettre de déboucher sur des systèmes qui lèvent les limitations des grands modèles de langage. Le responsable de la division intelligence artificielle de Meta et ses équipes se donnent une dizaine d’années pour parvenir à une intelligence artificielle de niveau humain.

    Source : Yann LeCun

    Et vous ?

    Quelle appréciation faites-vous de la position de l’expert français Yann Lecun sur le sujet ?

    Voir aussi :

    « L'IA est susceptible de devenir plus intelligente que les Hommes contre lesquels elle pourra donc se retourner et les exterminer », préviennent des chercheurs sur une possible future apocalypse

    Pour Bill Gates, l'IA est l'avancée technologique la plus importante depuis des décennies, il vient de publier une lettre de 7 pages sur l'IA et ses prédictions pour son avenir

    « Le développement de l'IA sans réglementation induit une menace existentielle pour l'humanité », d'après Elon Musk dont une société développe des puces à insérer dans le cerveau pour contrer l'IA

    « Les appels à suspendre le développement des systèmes d'IA ne résoudront pas les défis liés à leur mise sur pied », d'après Bill Gates qui entrevoit l'échec d'un consensus à l'échelle mondiale

    Le PDG d'OpenAI estime que l'approche actuelle de l'IA va bientôt atteindre ses limites, la mise à l'échelle des modèles LLM cessera d'apporter des améliorations à l'IA, selon lui
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  7. #7
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 754
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 754
    Par défaut
    Apparemment, les avertissements de la Science Fiction n'ont pas suffi.

    Citation Envoyé par Patrick Ruiz Voir le message
    Schwartz a dit qu’il ne connaissait pas ChatGPT et qu’il ignorait qu’il fabriquait des affaires. Il a même dit qu’il avait vérifié avec ChatGPT si les affaires étaient vraies.
    Suffisait d'y penser ...

    On n'a pas précisé si il a été condamné pour outrage à magistrat.

  8. #8
    Membre extrêmement actif
    Homme Profil pro
    Graphic Programmer
    Inscrit en
    Mars 2006
    Messages
    1 621
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Graphic Programmer
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Mars 2006
    Messages : 1 621
    Par défaut
    dans quelques années ils vont devoir reembocher massivement des dev pour combler tous les trou de securité de cette ia de merde

  9. #9
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 276
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 276
    Billets dans le blog
    3
    Par défaut
    IA de merde pas forcément, elle fait ce pour quoi elle a été conçue. Mais l'utilisateur, ici BP, peut en abuser. Et vu le discours tenu, il semble qu'il soit en bonne voie de le faire (l'abus). Donc oui, s'il pousse trop loin il devra réembaucher par la suite. On ne devient pas bon dans ce qu'on fait en lisant juste ce que font les autres, même les meilleurs. La pratique reste indispensable. S'il se contente de faire valider le code aux humains, même s'il garde les meilleurs, ils vont naturellement perdre en qualité (et en motivation pour d'autres raisons). Ce qu'il gagne là il le perdra par ailleurs. Et selon comment le process évolue, il peut y avoir une perte de cohérence qui rendra le code d'autant plus difficile à reprendre quand il faudra y remettre de l'humain dedans.

    Maintenant, si ce qu'il dit est vrai et se passe bien, c'est que le code de BP est vraiment du code basique et inintéressant au possible. Auquel cas merci d'épargner aux dévs ce genre d'expérience.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  10. #10
    Candidat au Club
    Homme Profil pro
    Développeur informatique
    Inscrit en
    Janvier 2020
    Messages
    5
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Saône et Loire (Bourgogne)

    Informations professionnelles :
    Activité : Développeur informatique
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Janvier 2020
    Messages : 5
    Par défaut
    Pourquoi pas, mais pour avoir testé / utlisé copilot & co, le gain n'est pas si énorme, et surtout , on ne peut pas faire confiance à 100% à l'IA. le code généré peut sembler être bon, mais il est souvent "mal pensé", "pas optimisé", voir même peut générer des bugs avec le reste du code existant.
    Après, on verra d'ici quelques années si ils arrivent à se passer de nous ou si on contraire, ils auront besoin de personne ultra-qualifiées pour débugger tout ce qui aura été "codé automatiquement" pendant plusieurs années!

  11. #11
    Membre confirmé
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Février 2024
    Messages
    198
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : Allemagne

    Informations professionnelles :
    Activité : Architecte réseau

    Informations forums :
    Inscription : Février 2024
    Messages : 198
    Par défaut
    Tout dépend des besoins en dev chez BP. Ma tendance lourde est au code vite fait mal fait et aux projets peu durables dans le temps. C'est là le business de toutes les ESN ou presque. Alors oui, l'IA est une très bonne alternative dans ce cas, elle va remplacer beaucoup de codeurs à faible valeur ajoutée.

  12. #12
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 754
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 754
    Par défaut
    Citation Envoyé par Aiekick Voir le message
    dans quelques années ils vont devoir reembocher massivement des dev pour combler tous les trou de securité de cette ia de merde
    Et ... Se rabibocher avec, pendant qu'ils y seront ?

    Citation Envoyé par RenarddeFeu Voir le message
    Tout dépend des besoins en dev chez BP. Ma tendance lourde est au code vite fait mal fait et aux projets peu durables dans le temps. C'est là le business de toutes les ESN ou presque. Alors oui, l'IA est une très bonne alternative dans ce cas, elle va remplacer beaucoup de codeurs à faible valeur ajoutée.
    Ce n'est pas pire que faire bosser quelqu'un sur le langage le plus mal foutu qu'on ait dans la boîte, et lui reprocher ensuite d'être lent.

  13. #13
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 276
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 276
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par RenarddeFeu Voir le message
    Tout dépend des besoins en dev chez BP. Ma tendance lourde est au code vite fait mal fait et aux projets peu durables dans le temps. C'est là le business de toutes les ESN ou presque.
    Pas de la mienne (5e au Great Place to Work et c'est pas volé).

    Cela dit, ce ne sont pas les ESN qui décident du contenu du projet et des priorités, mais les clients. Si je comprends le côté viandard de la plupart des ESN, n'allons pas non plus tout leur mettre sur le dos. Si c'est du code vite fait mal fait chez BP, ce serait avant tout du fait de BP.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  14. #14
    Membre confirmé
    Homme Profil pro
    Architecte réseau
    Inscrit en
    Février 2024
    Messages
    198
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : Allemagne

    Informations professionnelles :
    Activité : Architecte réseau

    Informations forums :
    Inscription : Février 2024
    Messages : 198
    Par défaut
    Citation Envoyé par Matthieu Vergne Voir le message
    Pas de la mienne (5e au Great Place to Work et c'est pas volé).
    Pour ma part, le Great Place to Work est un énorme red flag. Plus une entreprise de vante d'avoir des valeurs, plus le risque est grand de tomber dans un nid de crabes.

    J'ai bossé pour l'entreprise première dans sa catégorie à une époque, ce fut la pire expérience de ma vie. Dénigrement, harcèlement au quotidien, certainement pas un endroit sain où travailler. Les managers veillaient à ce que les consultants remplissent correctement le questionnaire.

  15. #15
    Membre éprouvé
    Avatar de Matthieu Vergne
    Homme Profil pro
    Consultant IT, chercheur IA indépendant
    Inscrit en
    Novembre 2011
    Messages
    2 276
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations professionnelles :
    Activité : Consultant IT, chercheur IA indépendant
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Novembre 2011
    Messages : 2 276
    Billets dans le blog
    3
    Par défaut
    Citation Envoyé par RenarddeFeu Voir le message
    Pour ma part, le Great Place to Work est un énorme red flag. Plus une entreprise de vante d'avoir des valeurs, plus le risque est grand de tomber dans un nid de crabes.
    C'est toujours à vérifier, pas à prendre pour argent comptant (d'où ma parenthèse). Mais je sais que je suis un chanceux : les bonnes ESN ne sont pas la généralité.
    Site perso
    Recommandations pour débattre sainement

    Références récurrentes :
    The Cambridge Handbook of Expertise and Expert Performance
    L’Art d’avoir toujours raison (ou ce qu'il faut éviter pour pas que je vous saute à la gorge {^_^})

  16. #16
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    2 103
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 2 103
    Par défaut James Betker d'OpenAI prévoit un agent incarné intelligent en trois ans
    L'intelligence générale artificielle (AGI) dans 3 ans, d'après James Betker, ingénieur chez OpenAI, serait un agent incarné généralement intelligent

    James Betker, ingénieur chez OpenAI, estime que la création d'un agent incarné généralement intelligent (AGI) pourrait être réalisée en 3 ans, en contraste avec les prédictions plus conservatrices du PDG de Google DeepMind, qui anticipe une décennie, et de Shane Legg, cofondateur de DeepMind, qui évalue à 50 % la probabilité d'atteindre l'AGI d'ici 2028. Selon Betker, l'AGI doit être capable d'interagir avec un environnement complexe, de posséder un modèle robuste du monde et d'effectuer une introspection approfondie. Sam Altman, PDG d'OpenAI, minimise néanmoins les craintes d'un impact radical de l'IA, affirmant que l'AGI aura un effet moins perturbateur que prévu.

    L'intelligence artificielle générale est un concept théorique d'un système d'IA aux capacités comparables à celles de l'homme. Pour atteindre ce niveau, l'IA doit exceller dans divers domaines, tels que la perception sensorielle (vue, ouïe, toucher, etc.), la motricité fine, le traitement du langage naturel, la résolution de problèmes, la navigation, la créativité, l'engagement social et émotionnel, et possiblement le bon sens. Les prévisions optimistes suggèrent que l'AGI pourrait être atteinte dans les cinq à dix prochaines années, mais certains experts estiment que cela pourrait prendre des décennies, voire des siècles.

    Nom : agi.jpg
Affichages : 6602
Taille : 45,6 Ko

    L'atteinte de l'AGI représente un défi majeur. De plus en plus de chercheurs soutiennent que l'industrie doit revoir son approche pour y parvenir. Ils préconisent une méthode où les agents artificiels ajustent leurs réseaux neuronaux en réponse aux interactions avec leur corps et leur environnement, apprenant ainsi à naviguer dans leur milieu. Selon ces experts, cette approche est essentielle pour progresser vers l'AGI et doit être intégrée aux avancées actuelles de l'IA, notamment les grands modèles de langage.

    Pour Betker, l'intelligence générale implique trois capacités essentielles : interagir avec un environnement complexe (incarnation), posséder un modèle robuste du monde pour des déductions rapides (intuition ou pensée rapide), et mener une introspection approfondie (raisonnement ou pensée lente). Un agent AGI doit avoir des objectifs et utiliser ces capacités pour imaginer, planifier et agir, tout en ajustant ses actions en fonction des résultats observés. L'agent doit pouvoir répéter ce cycle de manière cohérente sur le long terme pour optimiser ses objectifs, où l'adaptabilité et la cohérence sont cruciales.

    Perspectives et développements de l'AGI

    Sam Altman, PDG d'OpenAI, estime que les craintes d'une perturbation radicale du monde par l'IA sont exagérées, affirmant que l'AGI aura un impact moindre que prévu. En revanche, le PDG de Google DeepMind anticipe une intelligence artificielle de niveau humain dans une décennie. Shane Legg, cofondateur de DeepMind, évalue à 50 % la probabilité d'atteindre l'AGI d'ici 2028, suggérant d'identifier les tâches cognitives manquantes ou de créer de nouvelles références pour évaluer l'AGI. Lors de la conférence SoftBank World, Masayoshi Son a déclaré que l'AGI, surpassant l'intelligence humaine dans presque tous les domaines, pourrait voir le jour d'ici dix ans, soulignant les progrès rapides de l'IA générative. Une étude prévoit l'AGI autour de 2041, avec une possible date dès 2028, et souligne son risque existentiel potentiel pour l'humanité.

    James Betker explique que les modèles mondiaux autorégressifs, tels que les omnimodèles, se développent et deviennent de plus en plus robustes grâce aux investissements. Il estime que ces modèles actuels sont suffisants pour créer un agent généralement intelligent, mettant en avant l'importance de l'interaction entre la pensée du système 2 et l'observation du monde réel pour améliorer leur robustesse. Betker est convaincu que la pensée du système 2 est réalisable avec les transformateurs et les ressources actuelles, et prévoit que cela prendra 2 à 3 ans. En ce qui concerne l'incarnation, il anticipe des progrès significatifs dans 1 à 2 ans grâce à la convergence des avancées en robotique et en IA. En intégrant ces progrès, il estime qu'il faudra 1 à 2 ans supplémentaires pour développer un cycle complet d'actions et d'apprentissages cohérents.

    Le système 1 est un processus cognitif qui fonctionne de manière automatique, involontaire, intuitive, rapide et avec peu d'effort. C'est le mode de raisonnement par défaut, car il consomme moins d'énergie. Ce système est également à l'origine de la créativité, grâce aux multiples associations intuitives qu'il réalise. Par exemple, il permet aux individus de reconnaître instantanément la colère sur le visage d'une personne.

    En revanche, le système 2, souvent à tort associé principalement à la pensée consciente, requiert de la concentration et de l'attention. Il est sollicité pour résoudre des problèmes complexes grâce à son approche analytique, bien qu'il soit plus lent que le premier. Ce processus intervient lorsque le premier est confronté à une situation nouvelle qu'il ne peut résoudre. Par exemple, il permet aux individus de remplir leur déclaration d'impôts.

    James Betker adopte une perspective optimiste par rapport aux estimations plus prudentes de Google DeepMind. Il croit que l'intégration des avancées en robotique et en intelligence artificielle, en particulier les modèles autorégressifs et omnimodèles, est suffisante pour créer une intelligence artificielle générale capable d'interagir avec un environnement complexe, de développer une compréhension robuste du monde et d'effectuer une introspection approfondie.

    Cependant, cette perspective semble sous-estimer les défis inhérents à la réalisation d'une véritable AGI. Le développement de la « pensée du système 2 », qui implique des processus déductifs et introspectifs complexes, reste un défi majeur. Bien que les technologies actuelles aient fait des progrès significatifs, elles ne sont pas encore capables de reproduire pleinement les capacités cognitives humaines. La pensée du système 2 nécessite non seulement une compréhension profonde et une modélisation des interactions complexes, mais aussi la capacité de réutiliser et d'adapter ces modèles de manière flexible et cohérente sur de longues périodes.

    De plus, l'incarnation, ou la capacité des IA à interagir physiquement avec le monde, pose des défis techniques et éthiques considérables. Les avancées en robotique sont prometteuses, mais elles doivent être intégrées de manière cohérente avec les capacités cognitives de l'IA pour permettre une véritable AGI. Cette intégration nécessite non seulement des progrès technologiques, mais aussi une compréhension approfondie des interactions entre les différents composants de l'IA et de leur environnement.

    Sam Altman, PDG d'OpenAI, souligne que l'impact de l'AGI sur le monde et les emplois pourrait être moins radical que prévu, ce qui suggère une approche plus prudente et mesurée. Cette perspective appelle à un équilibre entre l'optimisme et le réalisme, en reconnaissant les progrès réalisés tout en restant conscient des obstacles à surmonter.

    En conclusion, bien que l'optimisme de Betker soit motivant, il est crucial de maintenir une perspective équilibrée et de reconnaître les défis techniques, conceptuels et éthiques qui demeurent. L'atteinte de l'AGI est un objectif ambitieux qui nécessitera une collaboration continue et une approche multidisciplinaire pour être réalisé de manière sûre et éthique.

    Source : James Betker, OpenAI engineer, in a post

    Et vous

    Quel est votre avis sur ce sujet ?

    L'analyse de James Betker est-elle pertinente ?

    Voir aussi :

    L'un des fondateurs de DeepMind pense qu'il y a une probabilité de 50 % que l'AGI existe d'ici 2028, certains estiment qu'il y a des chances que, l'AGI prenne le contrôle de l'humanité et la détruise

    L'intelligence générale artificielle (AGI), qui surpasse l'intelligence humaine dans presque tous les domaines, verrait le jour d'ici 10 ans, a déclaré Masayoshi Son, PDG de SoftBank

    L'atteinte d'une forme d'IA de niveau humain est-elle plus rapide que prévu ? Il y aurait une chance sur deux pour qu'une « AGI » soit conçue, testée et annoncée publiquement d'ici 2040
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  17. #17
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 181
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 181
    Par défaut Le futurologue Ray Kurzweil continue d’affirmer qu'il fusionnera avec l'IA afin d’être éternel
    Le futurologue Ray Kurzweil continue d’affirmer qu'il fusionnera avec l'intelligence artificielle afin d’être éternel
    Et fixe l’année 2045 comme marqueur de réalisation de cette nouvelle prédiction de sa part

    Imaginez accéder à Wikipédia simplement en y pensant. Cela ressemble à de la science-fiction maintenant, mais le futurologue et ingénieur de Google, Ray Kurzweil, pense que cela deviendra une réalité dans quelques années. C’est en droite ligne avec ce tableau qu’il continue d’affirmer qu’il fusionnera avec l’intelligence artificielle afin d’être éternel. Il fixe d’ailleurs l’année 2045 comme marqueur de réalisation de cette prédiction après de précédentes qui indiquaient plutôt 2030. Les progrès technologiques réalisés laissent-ils envisager la réalisation de ces prédictions dans quelques années ?

    La nouvelle date est l’un des essentiels de son nouveau livre intitulé « Singularity is nearer » qui prédit l’atteinte de l’intelligence artificielle générale en 2029 et la maturité totale du processus de fusion de l’humain avec l’IA dans 20 ans. « Cette fusion nous rendra alors plus intelligents », indique-t-il.

    Raymond C. Kurzweil est un auteur, ingénieur, chercheur, et futurologue américain. Il est créateur de plusieurs entreprises pionnières dans le domaine de la reconnaissance optique de caractères (OCR), de la synthèse et de la reconnaissance vocales, et des synthétiseurs électroniques. Il est également l'auteur de nombreux ouvrages sur la santé, l'intelligence artificielle, la prospective et la futurologie. En décembre 2012, il annonce qu'il rejoint Google pour travailler à de nouveaux projets impliquant « l'apprentissage automatisé et le traitement automatique des langues ».

    Le pionnier de l’intelligence artificielle voit les cyborgs comme le prochain stade de l’évolution de l’humanité

    Le pionnier de l'intelligence artificielle, Ray Kurzweil, a prédit qu’une technologie permettra aux cerveaux humains d'être connectés directement à Internet.

    « Notre pensée sera alors un hybride de pensée biologique et non biologique », soutient-il. « Nous allons progressivement fusionner et nous améliorer. À mon avis, c'est la nature de l'être humain - nous transcendons nos limites ».

    Les humains pourront choisir de devenir mi-humain, mi-ordinateur. Avec l'aide de minuscules nanobots faits d'ADN, il estime que nous pourrions nous connecter au cloud par la pensée.

    La connexion des cerveaux à Internet ou à un réseau informatique sur le cloud permettra une réflexion avancée, prédit Kurzweil et, la pensée humaine pourrait être principalement non biologique.

    Les nanobots d'ADN sont moins susceptibles d'être rejetés par le système immunitaire du corps que le matériel traditionnel, car ils sont constitués de molécules biologiques. Les chercheurs les ont déjà utilisés pour cibler et détruire les cellules cancéreuses ainsi que pour stocker des données.

    Ces petites structures de 35 nanomètres sont capables de transporter un médicament et de le délivrer uniquement aux cellules malades. À l'instar des cellules du système immunitaire, ils reconnaissent leur cible grâce aux protéines présentes sur la surface de la membrane plasmique.

    Ces nanorobots ont été conçus par des chercheurs de l'université d’Harvard à partir d'un logiciel permettant d'élaborer des origamis d'ADN. Le principe date de 2006 et consiste à recréer une forme en 3D à l'aide d'un long brin d'ADN viral agencé grâce à de petits fragments nucléotidiques jouant le rôle d'agrafes. L'informatique réalise tous les calculs à partir du modèle de base qu'on lui fournit.

    Dans cette expérience, le nanorobot adopte plus ou moins la forme d'un tonneau contenant en son centre la molécule d'intérêt, un médicament. À l'une de ses extrémités, il possède deux anticorps complémentaires de protéines présentes sur la membrane de cellules malades. Ainsi, lorsque ces deux sites se lient à leur cible, l'ensemble change de conformation, le tonneau s'ouvre et libère son principe actif au bon endroit. On parle alors de médicament intelligent.

    Cela relève encore de la science-fiction, car nous ne sommes qu'aux premiers balbutiements des origamis d'ADN. Mais Kurzweil pense que cette technologie pourrait éventuellement envoyer des e-mails et des vidéos directement au cerveau, voire nous permettre de sauvegarder nos pensées et nos souvenirs.

    « Dans vingt ans, nous aurons des nanorobots, car une autre tendance exponentielle est le rétrécissement de la technologie », explique Kurzweil dans une conférence Ted de 2014 sur la croissance au-delà des limites physiques de notre cerveau. « Ils entreront dans notre cerveau par les capillaires et connecteront essentiellement notre néocortex à un néocortex synthétique dans le cloud ».

    Il a fait une prédiction pour le moins audacieuse et surprenante : des millions, voir des milliards de nanorobots investiront nos corps pour nous maintenir en bonne santé, améliorer notre système immunitaire et enfin rendre accessible notre cerveau dans le Cloud. Mais pourquoi donc cette accessibilité de nos cerveaux dans le Cloud ? Selon Kurzweil, le but premier serait de transcender l’intelligence humaine vers un seuil jamais atteint : « en 2035, je vois quelqu’un m’approcher, je souhaiterais alors l’impressionner et penser à quelque chose d’intelligent, je serais alors en mesure d’accéder à d’autres cerveaux pour parvenir à cela ».

    Les prédictions de Kurzweil s'accompagnent de quelques mises en garde et avertissements. Même si cela est possible, le fait que nos pensées soient complètement fusionnés avec Internet les expose à des problèmes tels que le piratage et d'autres problèmes de sécurité.

    Imaginez à quel point un virus informatique ou un hacker serait dangereux si nos pensées étaient connectées à Internet : quelqu'un pourrait voler nos souvenirs ou corrompre nos pensées.

    Le bénéfice potentiel vaut-il le risque ? Kurzweil semble le penser : « Comme je l'écrivais il y a 20 ans, la technologie est une arme à double tranchant », a déclaré Kurzweil. « Le feu nous a gardés au chaud et cuit nos aliments, mais a également brûlé nos maisons. Chaque technologie a ses promesses et ses dangers ».

    Mais les prédictions du chercheur et futurologue sont en contradiction avec la biologie

    Bien que l'idée que le matériel s'améliore de façon exponentielle au fil des ans est vraie pour certains composants, il est peu probable qu'elle s'applique à la mise en ligne de notre cerveau. Les scientifiques soulignent que nous avons à peine effleuré la surface de la compréhension du fonctionnement de la pensée. Selon certains chercheurs, penser que nous pouvons infiltrer ou relier nos innombrables ordinateurs biologiques complexes au cloud est fondamentalement faux.

    « Des théories comme celle de Kurzweil sont en contradiction avec la biologie », a écrit Robert Breezing, l'auteur de Psychotherapy of Character, dans Psychology Today. « Cela conduit toujours à des pensées magiques et à de fausses croyances. Kurzweil est le même gars qui croit qu'il peut ramener son père d'entre les morts. Cela n'arrivera pas », a écrit Breezing. « C'est un fantasme anti-biologique ».

    Kurzweil est néanmoins l’auteur de plusieurs prédictions faites 20 ans à l’avance et qui ont fini par se réaliser

    Voici quelques-unes des prédictions de Raymond C. Kurzweil en 1999 pour 2019 (soit 20 ans à l'avance) tirées de son livre The Age of Spiritual Machines :

    • Les ordinateurs sont intégrés partout dans l'environnement (à l'intérieur des meubles, des bijoux, des murs, des vêtements, etc.).
    • Les personnes expérimentent la réalité virtuelle 3D à travers des lunettes et des lentilles de contact qui transmettent des images directement vers leur rétine (affichage rétinien). Couplé à une source auditive (casque), les utilisateurs peuvent communiquer à distance avec d'autres personnes et accéder à Internet.
    • Ces lunettes et lentilles cornéennes spéciales peuvent offrir "réalité augmentée" et "réalité virtuelle" de trois manières différentes. Tout d'abord, ils peuvent projeter des "heads-up-displays" (HUD) sur le champ de vision de l'utilisateur, en superposant des images qui restent en place dans l'environnement, quel que soit le point de vue ou l'orientation de l'utilisateur. Deuxièmement, les lunettes ou les objets virtuels peuvent être restitués à des emplacements fixes. Ainsi, lorsque l'utilisateur regarde ailleurs, les objets semblent rester à leur place. Troisièmement, les appareils pourraient bloquer complètement le monde "réel" et immerger complètement l'utilisateur dans un environnement de réalité virtuelle.
    • Les gens communiquent avec leurs ordinateurs par la parole et les gestes dans les deux sens plutôt qu'avec des claviers. De plus, la plupart de ces interactions se font par l’intermédiaire d’assistants informatisés de personnalités différentes que l’utilisateur peut sélectionner ou personnaliser. Traiter avec des ordinateurs devient donc de plus en plus comme traiter avec un être humain.
    • La plupart des transactions commerciales ou des demandes d'informations impliquent de traiter avec une personne simulée.
    • La plupart des gens possèdent plus d'un PC, bien que le concept de "ordinateur" ait considérablement changé : la conception des ordinateurs n'est plus limitée aux ordinateurs portables ou aux processeurs contenus dans un grand boîtier connecté à un moniteur. Au lieu de cela, les appareils dotés de capacités informatiques se présentent sous toutes sortes de formes et de tailles inattendues.
    • Les câbles reliant les ordinateurs et les périphériques ont presque complètement disparu.
    • Les disques durs en rotation ne sont plus utilisés.
    • Des réseaux neuronaux parallèles et des algorithmes génétiques sont largement utilisés.
    • Les analyses destructives du cerveau et les analyses non invasives du cerveau ont permis aux scientifiques de mieux comprendre le cerveau. Les algorithmes qui permettent au code génétique relativement petit du cerveau de construire un organe beaucoup plus complexe sont transférés dans des réseaux neuronaux informatiques.
    • Les caméras de la taille d'une tête d'épingle sont partout.
    • La nanotechnologie est plus performante et est utilisée pour des applications spécialisées, mais elle n’a pas encore été intégrée à la norme. Les "machines nanotechnologiques" commencent à être utilisées dans la fabrication.
    • Les écrans fins, légers et portables, avec de très hautes résolutions, constituent le moyen privilégié de visualisation des documents. Les lunettes et les lentilles cornéennes susmentionnées sont également utilisées à cette fin et téléchargent toutes les informations sans fil.
    • Les ordinateurs ont rendu les livres et les documents papier presque complètement obsolètes.
    • La plupart des apprentissages sont réalisés au moyen de didacticiels intelligents et adaptatifs présentés par des enseignants simulés par ordinateur. Au cours du processus d'apprentissage, les adultes humains assument les rôles de conseiller et de mentor au lieu d'être des instructeurs universitaires. Ces assistants ne sont souvent pas physiquement présents et aident les étudiants à distance.


    Mais d'autres de ses prédictions ont échoué, comme les voitures autonomes. Il prévoyait qu'elles seraient monnaie courante d'ici 2009. Bien que les voitures autonomes existaient à cette époque, sa vision d'une utilisation mainstream ne s'est toujours pas réalisée.

    Nom : 0.png
Affichages : 8763
Taille : 29,6 Ko

    La pénurie d’énergie annoncée est susceptible de fausser les prédictions de Ray Kurzweil

    Chaque fois que vous effectuez une recherche comme « combien de cailloux dois-je manger » et que l'intelligence artificielle de Google vous répond « au moins un petit caillou par jour », vous consommez environ trois wattheures d'électricité, selon Alex de Vries, fondateur de Digiconomist. C'est dix fois la consommation d'énergie d'une recherche traditionnelle sur Google et à peu près l'équivalent de la quantité d'énergie utilisée pour parler pendant une heure sur un téléphone fixe.

    Nom : 1.png
Affichages : 1745
Taille : 67,2 Ko

    La situation est telle que l’intelligence artificielle entraîne la surcharge des réseaux électriques et fait craindre une pénurie. L'intelligence artificielle est un énorme gouffre à électricité. Aux États-Unis, les analystes rapportent que les réseaux électriques atteignent peu à peu leur limite.

    L'année dernière, les prévisions à cinq ans de Grid Strategies tablaient sur une croissance de 2,6 %. Depuis, ce chiffre a presque doublé pour atteindre 4,7 % et les planificateurs de Grid Strategies s'attendent à ce que la demande de pointe augmente de 38 gigawatts. Cela équivaut à la quantité nécessaire pour alimenter 12,7 millions de foyers, soit un peu plus que le nombre total d'unités d'habitation au Texas. Mais plus inquiétant encore, les analystes pensent que ce chiffre est probablement une sous-estimation des besoins réels.

    Ils s'attendent à ce que les prochaines prévisions (en décembre de cette année) fassent état d'un taux de croissance encore plus élevé au niveau national. Grid Strategies émet un avertissement clair : « le réseau électrique américain n'est pas prêt à faire face à une croissance importante de la charge ». Certains experts de l'industrie craignent des pénuries d'électricité. AES, une société de services publics basée en Virginie, a expliqué à ses investisseurs que les centres de données pourraient représenter jusqu'à 7,5 % de la consommation totale d'électricité aux États-Unis d'ici 2030, en citant des données du Boston Consulting Group.

    Nom : 2.png
Affichages : 1699
Taille : 419,8 Ko

    Et vous ?

    Les progrès technologiques réalisés laissent-ils envisager la réalisation de ces prédictions dans quelques années ?
    Si cela devenait réel, seriez-vous pour ou contre le fait de vous faire implanter des nanotechnologies pour connecter votre cerveau au cloud ? Dans quelle mesure ?
    Que pensez-vous de la mise en garde sur des possibilités de piratage et d'altération des souvenirs ?
    Quels sont les cas les plus drôles que vous pouvez imaginer ?

    Voir aussi :

    L'ingénieur Ray Kurzweil a fait des prédictions sur le paysage technologique de 2019 il y a 20 ans. Quelles sont celles qui se sont déjà réalisées ?
    D'après Ray Kurzweil, l'IA est sur la bonne voie pour surpasser l'intelligence humaine, mais sommes-nous prêts pour ce moment ?
    Neuralink, le projet d'Elon Musk pour qu'un cerveau humain interagisse directement avec un PC, et l'Homme fusionne avec l'IA, aberration ou fiction ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  18. #18
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 754
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 754
    Par défaut
    Citation Envoyé par Patrick Ruiz Voir le message
    Imaginez accéder à Wikipédia simplement en y pensant.
    Je retiens.
    Le jour où il sera question d'une fausse bonne idée, ça peut être bien d'avoir un exemple.

    L'impossibilité de penser à quelque chose sans que plusieurs personnes en soient informées automatiquement, génial !

  19. #19
    Membre éprouvé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 776
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 776
    Par défaut
    Citation Envoyé par Patrick Ruiz Voir le message
    Le futurologue Ray Kurzweil continue d’affirmer qu'il fusionnera avec l'intelligence artificielle afin d’être éternel
    Et fixe l’année 2045 comme marqueur de réalisation de cette nouvelle prédiction de sa part
    Quel abruti...

  20. #20
    Membre émérite
    Profil pro
    Développeur Web
    Inscrit en
    Février 2008
    Messages
    2 754
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Février 2008
    Messages : 2 754
    Par défaut
    Note bien qu'il s'est bien gardé de définir ce qu'il entend par "fusionner avec l'IA".

    Peut-être pas si abruti que ça : pour pas un rond, si ça se trouve il va se retrouver avec des admirateurs.

Discussions similaires

  1. Réponses: 1
    Dernier message: 09/11/2009, 09h53
  2. Réponses: 0
    Dernier message: 23/09/2009, 12h22
  3. L'État pourrait être le seul actionnaire de l'AFP
    Par ®om dans le forum Politique
    Réponses: 7
    Dernier message: 16/09/2009, 19h20
  4. Steve Jobs pourrait être présent à la WWDC 09 !?
    Par Marcos Ickx dans le forum Apple
    Réponses: 2
    Dernier message: 07/06/2009, 13h09
  5. L'université pourrait être bien?
    Par johankonigsberg dans le forum Etudes
    Réponses: 13
    Dernier message: 07/01/2009, 15h36

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo