IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #41
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 124
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 124
    Points : 57 049
    Points
    57 049
    Par défaut John Carmack, développeur de Doom, pense que l'IA générale (AGI) est réalisable d'ici 2030
    John Carmack, développeur de Doom, pense que l'IA générale (AGI) est réalisable d'ici 2030
    Et lance un partenariat avec un institut de recherche en Alberta pour en accélérer le développement

    L’IA en est encore au stade d’outil spécialisé dans la réalisation de certaines tâches répétitives : radiographie pulmonaire, robots-conseillers de gestion du patrimoine, etc. Elle sert même déjà à animer des robots tueurs capables de verrouiller des cibles sans intervention humaine et de tirer avec la plus grande précision. Et l’un des dangers en la matière est là : de nombreux pays sont lancés dans la course au développement de telles armes et ne parviennent pas à s’entendre sur des règles de contrôle. C’est fort de ces développements que des observateurs mettent en garde : un risque d’extinction de l’humanité plane et la possibilité de l’atteinte du stade d’intelligence artificielle générale le renforce. John Carmack est d’avis que ce niveau sera atteint d’ici 2030 et lance un partenariat avec un institut de recherche en Alberta pour en accélérer le développement.

    Carmack a fait part de son point de vue lors d'un événement organisé à l'occasion de l'annonce de l'embauche de Richard Sutton, conseiller scientifique en chef de l'Alberta Machine Intelligence Institute, par Keen, sa startup spécialisée dans le développement de l’intelligence artificielle générale. Sutton est d'avis qu'il n'est pas impossible de coder une intelligence artificielle générale avec les techniques actuelles et considère l'année 2030 comme un objectif envisageable pour qu'un prototype d'intelligence artificielle montre des signes de conscience.


    Le stade d’intelligence artificielle générale est celui où les machines seraient alors dotées de « bon sens. » Au stade d’intelligence artificielle générale, elles seraient capables de réflexion causale, c’est-à-dire de cette capacité à raisonner sur « le pourquoi les choses se produisent. » C’est ce palier que les équipes de recherche dans le domaine visent. Le professeur Osborne fait une prédiction à ce sujet : « Il y a toutes les raisons de s'attendre à ce que, même ce siècle, nous puissions voir une intelligence artificielle qui soit au moins aussi capable que les êtres humains et très probablement plus capable que tout être humain aujourd'hui. »

    La mise à contribution de l’IA sur les champs de bataille suscite déjà des craintes que l’atteinte de l’AGI viendra amplifier

    En septembre 2022, l'armée israélienne a commencé à installer une arme automatique à un poste de contrôle très fréquenté de la ville d'Hébron (Al-Khalil), en Cisjordanie occupée. Les tourelles jumelles ont été installées au sommet d'une tour de garde surplombant le camp de réfugiés d'Al-Aroub. « Elle tire toute seule sans intervention de la part du soldat. Quand un soldat israélien voit un petit garçon, il appuie sur un bouton ou quelque chose comme ça et elle tire toute seule. Elle est très rapide, même plus rapide que les soldats. Les bombes lacrymogènes qu'il tire peuvent atteindre l'extrémité du camp et tout le reste », a déclaré un résident du camp.

    La tourelle télécommandée a été développée par la société de défense israélienne Smart Shooter, qui a mis au point un système de contrôle de tir autonome appelé SMASH, qui peut être fixé sur des fusils d'assaut pour suivre et verrouiller des cibles à l'aide d'un traitement d'image basé sur l'intelligence artificielle. Le site Web de la société appelle ce système "One Shot-One Hit" (qui pourrait être traduit en français par : "un tir - un succès" ). Elle se vante d'avoir réussi à « combiner un matériel simple à installer avec un logiciel de traitement d'image avancé pour transformer des armes légères de base en armes intelligentes du XXIe siècle. »


    La société affirme que la technologie SMASH permet de surmonter les défis auxquels sont confrontés les soldats lors des batailles, tels que l'effort physique, la fatigue, le stress et la pression mentale pour viser avec précision et assurer le succès du tireur. « Notre objectif est de permettre à tous les corps d'infanterie de bénéficier des armes de précision. Quelle que soit l'expérience ou la mission du soldat, notre système lui permet de ne pas faire d'erreur lorsqu'il tire et de toucher la cible sans faute. Tout soldat devient un véritable tireur d'élite », a déclaré Michal Mor, fondateur et PDG de Smart Shooter, lors d'une interview en 2020.

    La tourelle vue à Hébron n'est pas annoncée sur le site Web de l'entreprise israélienne, mais deux autres tourelles automatisées, 'SMASH HOPPER' et 'SMASH HOPPER P', sont équipées de fusils d'assaut et du système Smart Shooter. « Le HOPPER peut être monté dans plusieurs configurations, notamment sur un trépied, un mât fixe, un navire de surface et des véhicules », indique le site Web de l'entreprise. Dans l'ensemble, l'entreprise indique que la technologie SMASH est censée améliorer l'efficacité des missions en engageant avec précision et en éliminant les cibles terrestres, aériennes, statiques ou mobiles, de jour comme de nuit.

    « Habituellement, le terroriste se trouve dans un environnement civil avec de nombreuses personnes que nous ne voulons pas blesser. Nous permettons au soldat de regarder à travers son système de contrôle de tir, pour s'assurer que la cible qu'il veut atteindre est la cible légitime. Une fois qu'il aura verrouillé la cible, le système s'assurera que la balle sera libérée lorsqu'il appuiera sur la gâchette, uniquement sur la cible légitime et qu'aucun des passants ne pourra être touché par l'arme », a déclaré Mor. Les militants des droits de l'Homme s'inquiètent de « la déshumanisation numérique des systèmes d'armes. »

    Selon les médias locaux, l'armée israélienne a déclaré qu'elle teste la possibilité d'utiliser le système pour appliquer des méthodes approuvées de dispersion de la foule, qui n'incluent pas le tir de balles réelles. « Dans le cadre des préparatifs améliorés de l'armée pour faire face aux personnes qui perturbent l'ordre dans la région, elle examine la possibilité d'utiliser des systèmes télécommandés pour employer des mesures approuvées de dispersion de foule. Cela n'inclut pas le contrôle à distance de tirs à balles réelles », explique un porte-parole de l'armée israélienne. Mais cela n'a pas suffi à calmer les craintes des militants des droits de l'homme.

    L'armée israélienne a également précisé qu'au cours de sa phase pilote, le système n'utilisera que des balles à pointe éponge. Cependant, des experts ont signalé qu'à plusieurs reprises, des balles à pointe éponge ont causé des blessures permanentes à des personnes en Cisjordanie occupée et en Israël, certaines ayant même perdu leurs yeux. Des militants des droits de l'homme d'Hébron ont exprimé leur inquiétude quant à la défaillance du système qui pourrait avoir un impact sur de nombreuses personnes, notant que le système a été placé au centre d'une zone fortement peuplée, avec des centaines de personnes passant à proximité.

    En outre, les militants des droits de l'homme, ainsi que d'autres critiques, affirment également que ce dispositif est un nouvel exemple de l'utilisation par Israël des Palestiniens comme cobayes, ce qui lui permettrait de commercialiser sa technologie militaire comme testée sur le terrain auprès des gouvernements du monde entier. « Je vois cela comme une transition du contrôle humain au contrôle technologique. En tant que Palestiniens, nous sommes devenus un objet d'expérimentation et de formation pour l'industrie militaire israélienne de haute technologie, qui n'est pas responsable de ce qu'elle fait », a déclaré un habitant de la région.

    C’est pour ces raisons que les appels au développement responsable des systèmes pilotés par des intelligences artificielles se multiplient

    Les PDG de Google Deepmind, OpenAI et d'autres startups d'IA ont prévenu que les futurs systèmes pourraient être aussi mortels que les pandémies et les armes nucléaires. Le groupe, qui se compose également de chercheurs en IA de renom, a publié une déclaration d'exactement 22 mots afin de tirer la sonnette d'alarme sur un hypothétique « risque d'extinction de l'espèce humaine. »

    Le groupe a publié une déclaration qui se lit comme suit : « l'atténuation du risque d'extinction lié à l'intelligence artificielle devrait être une priorité mondiale au même titre que d'autres risques à l'échelle de la société, tels que les pandémies et les guerres nucléaires ».

    La déclaration de 22 mots, publiée sur le site de l'organisation à but non lucratif "Center for AI Safety", a été raccourcie de la sorte afin de la rendre aussi largement acceptable que possible. Parmi les signataires figurent des dirigeants de trois des principales entreprises d'IA : Sam Altman, PDG d'OpenAI ; Demis Hassabis, PDG de Google DeepMind ; et Dario Amodei, PDG d'Anthropic.

    « Certaines préoccupations en matière d’intelligence artificielle ne sont pas simplement techniques. Par exemple, il y a la menace posée par les humains armés d'IA. Comme la plupart des inventions, l'intelligence artificielle peut être utilisée à des fins bénéfiques ou maléfiques. Les gouvernements doivent travailler avec le secteur privé sur les moyens de limiter les risques.

    Il y a aussi la possibilité que les intelligences artificielles deviennent incontrôlables. Une machine pourrait-elle décider que les humains constituent une menace, conclure que ses intérêts sont différents des nôtres ou simplement cesser de se préoccuper de nous ? C'est possible, mais ce problème n'est pas plus urgent aujourd'hui qu'il ne l'était avant les développements de l'IA de ces derniers mois », souligne-t-il.

    C’est une sortie qui rejoint celle de Michael Osborne et Michael Cohen de l’université d’Oxford : « « L’intelligence artificielle est susceptible de devenir plus intelligente que les Hommes contre lesquels elle pourra donc se retourner et les exterminer. »


    L’esprit critique, la créativité, l’originalité seraient les ingrédients qui risquent de faire défaut aux intelligences artificielles encore longtemps et à minima de repousser le palier 2030

    La réalité actuelle est que ces intelligences artificielles sont encore au stade d’outils à utiliser avec des pincettes. Même Google le confirme lors de l’annonce selon laquelle son IA Bard peut désormais aider à coder et à créer des fonctions pour Google Sheets : « Bard est encore au stade expérimental et peut parfois fournir des informations inexactes, trompeuses ou fausses tout en les présentant avec assurance. En ce qui concerne le codage, Bard peut vous générer du code qui ne produit pas le résultat escompté, ou vous fournir un code qui n'est pas optimal ou incomplet. Vérifiez toujours les réponses de Bard et testez et examinez soigneusement le code pour détecter les erreurs, les bogues et les vulnérabilités avant de vous y fier. »

    « Chatgpt est très doué pour fournir des astuces de codage en utilisant du code copié sur Internet, ce qui est incroyablement utile car cela peut faire gagner beaucoup de temps. Mais vous ne pouvez pas demander à Chatgpt de créer YouTube pour vous, de gérer et d'entretenir un système déjà opérationnel ou de parler à un client, de comprendre ses besoins et de construire un système qui résoudra ses problèmes. Pour obtenir de l'aide dans ces tâches complexes, vous devez comprendre le fonctionnement de ces systèmes. Vous devez être un ingénieur logiciel et chatgpt sera un excellent assistant pour vous. Mais il est loin de pouvoir résoudre ces problèmes. Et si c'était le cas, il s'agirait d'une intelligence artificielle générale qui ne remplacerait pas uniquement les ingénieurs en informatique. Mais il s'agit d'un modèle de langage. Ce n'est pas une source de sagesse. La résolution de problèmes, la pensée critique, l'originalité sont toujours du ressort des humains », déclare le créateur de la plateforme en ligne d’apprentissage dénommée Brilliant.


    Source : Video amii

    Et vous ?

    Partagez-vous les avis selon lesquels ce n’est qu’une question de temps avant que les équipes de recherche n’atteignent le stade d’intelligence artificielle générale ?
    Ou êtes-vous de ceux qui pensent que l’esprit critique, la créativité et l’originalité resteront l’apanage de l’être humain annulant ainsi toute possibilité d’atteinte du stade d’AGI ?
    Comment entrevoyez-vous les rapports entre les humains et les machines en cas d’atteinte du stade d’AGI ? Souscrivez-vous aux scénarios apocalyptiques avec des robots tueurs qui se lanceront à la poursuite des humains ?

    Voir aussi :

    La conduite autonome serait-elle à ce jour qu'une vision futuriste chez Tesla Motors ? L'entreprise vient de changer les objectifs de son Autopilot
    La SEC demande à Musk de renoncer à son poste de président de Tesla et exige une amende de 40 millions $ US pour un règlement à l'amiable
    Tesla annonce que le nouvel ordinateur pour une conduite entièrement autonome de ses véhicules est en production et fera ses preuves ce mois-ci
    Les actions Tesla chutent après que son système d'autopilote est impliqué dans un accident et l'annonce des batteries de ses véhicules prenant feu

  2. #42
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 020
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 020
    Points : 18 059
    Points
    18 059
    Par défaut Comment saurons-nous que nous avons atteint une forme d'intelligence générale artificielle ?
    Comment saurons-nous que nous avons atteint une forme d'intelligence générale artificielle ? Pour certains experts en IA, ce sera lorsque la machine aura une cognition de niveau humain

    L'atteinte d'une intelligence générale artificielle (AGI) est le but ultime des entreprises d'IA. Mais si les experts en IA tentent de prédire le moment où cela arrivera, presque aucun d'entre eux ne parvient clairement à répondre à la question : comment l'AGI se manifestera-t-elle ? La réponse semble facile, mais tout le monde ne s'accorde pas sur le sujet. Selon certains technologues et experts en IA, il est peu probable que les gens se rendent compte qu'ils interagissent avec une AGI. Un autre groupe estime que nous serons en présence d'une AGI lorsque la machine aura une cognition de niveau humain. Au sein de la communauté, la notion même d'AGI fait l'objet de polémiques.

    En termes simples, l'intelligence artificielle générale est une forme "hypothétique" d'intelligence artificielle dans laquelle une machine peut apprendre et penser comme un humain. Pour que cela soit possible, l'AGI devrait avoir une conscience de soi et une conscience tout court, afin de pouvoir résoudre des problèmes, s'adapter à son environnement et effectuer un plus large éventail de tâches. Si l'AGI - également appelée "IA forte" - semble relever de la science-fiction, c'est parce qu'elle est encore d'actualité. Les formes d'IA existantes n'ont pas encore atteint le niveau de l'AGI, mais les chercheurs en IA et les entreprises travaillent toujours pour en faire une réalité.

    L'IA (dite faible) est en fait formée à partir de donnée pour effectuer des tâches spécifiques ou une série de tâches limitées à un seul contexte. Plusieurs formes d'IA s'appuient sur des algorithmes ou des règles préprogrammées pour guider leurs actions et apprendre à fonctionner dans un certain environnement. Par contre, l'AGI se veut capable de raisonner et de s'adapter à de nouveaux environnements et à différents types de données. Au lieu de dépendre de règles prédéfinies pour fonctionner, l'AGI adopte une approche de résolution de problèmes et d'apprentissage. Selon les experts, l'AGI devrait faire preuve des mêmes capacités de raisonnement que les humains.


    L'IA faible ou étroite est le type d'IA qui pilote les véhicules autonomes, les générateurs d'images et les chatbots. En d'autres termes, il s'agit d'une IA qui exécute une gamme limitée de tâches. Deux sous-ensembles d'IA entrent dans la catégorie de l'IA faible : les machines réactives et les machines à mémoire limitée. Les machines réactives peuvent réagir à des stimuli immédiats, mais ne peuvent pas stocker ou apprendre à partir de souvenirs d'actions passées. Les machines à mémoire limitée peuvent stocker des informations passées afin d'améliorer leurs performances au fil du temps. Elles représentent la majorité des outils d'IA disponibles aujourd'hui.

    Cependant, l'AGI brouille la frontière entre l'intelligence humaine et l'intelligence des machines. Il y a trois principaux avis sur le sujet. Certains experts en IA pensent que nous serons en présence d'une AGI lorsque les machines feront preuve d'une cognition de niveau humain. Mais cette affirmation est controversée par d'autres experts qui pensent que la manifestation de l'AGI sera implicite et qu'il sera difficile de prouver qu'une forme d'IA est une AGI. Un troisième groupe d'experts réfute ces deux arguments et affirme que l'AGI est "irréalisable". En outre, il faut aussi noter que les experts sont divisés sur la notion même d'intelligence générale artificielle.

    « L'AGI n'est pas une ligne définie où elle existe d'un côté et n'existe pas de l'autre. Il s'agit d'un état subjectif de l'IA qui, à mon avis, se développera progressivement sur un spectre. À mon avis, certaines personnes penseront qu'elle existe, d'autres non, et cela s'ajustera graduellement jusqu'à ce qu'il y ait plus de gens qui pensent que cela existe que de gens qui ne le pensent pas », peut-on lire dans les commentaires. Un autre a écrit : « nous atteindrons l'AGI lorsque les capacités des machines seront bien supérieures à celles des humains dans de nombreux domaines. L'AGI n'existera jamais, car dès qu'elle sera là, elle sera déjà supérieure à l'homme ».

    « Il ne s'agit pas d'une chose binaire. Les Transformers font déjà des choses de bas niveau en matière d'AGI. L'AGI augmentera probablement de manière progressive, avec quelques percées occasionnelles donnant lieu à des avancées plus importantes que la normale. Rien ne prouve que l'AGI passera de 1 à 1000 en une nuit. Je ne pense même pas que les Transformers soient capables d'une AGI de niveau humain, et je ne connais pas d'architecture qui le permette. Je ne parierai donc pas sur une AGI de niveau humain dans un avenir prévisible », a écrit un autre critique. Même les experts en IA de premier plan semblent divisés sur la question.


    Après la sortie de GPT-4, une équipe de scientifiques de Microsoft a prétendu dans un rapport d'étude que la technologie d'OpenAI montre des "étincelles" d'une AGI. « Compte tenu de l'étendue et de la profondeur des capacités de GPT-4, nous pensons qu'il pourrait raisonnablement être considéré comme une version précoce, mais encore incomplète) d'une AGI ». Mais cette affirmation et la méthode utilisée par l'équipe pour arriver à cette conclusion ont fait l'objet d'une grande controverse. Mais comment l'AGI se manifestera-t-elle une fois qu'elle sera une réalité ? Les experts prédisent son arrivée, mais ne disent pas comment on saura qu'il est là :

    Sam Altman, cofondateur et PDG d'OpenAI

    Dans une interview avec Lex Fridman, expert en IA et présentateur de podcast, en mars dernier, Altman a déclaré que bien que les progrès rapides sont faits dans le domaine de l'IA, le calendrier de l'AGI est incertain. Il a souligné l'importance de discuter et d'aborder la possibilité que l'AGI constitue une menace existentielle pour l'humanité. Il préconise la découverte de nouvelles techniques pour atténuer les dangers potentiels et l'itération à travers des problèmes complexes pour apprendre tôt et limiter les scénarios à haut risque. Altman a demandé ensuite à son interlocuteur s'il pensait que GPT-4 était une AGI, ce à quoi Fridman a répondu :

    « Je pense que si c'est le cas, comme pour les vidéos d'OVNI, nous ne le saurions pas tout de suite. Je pense qu'il est difficile de le savoir quand je réfléchis. Je jouais avec GPT-4 et je me demandais comment je pourrais savoir s'il s'agit d'une AGI ou non. En d'autres termes, quelle est la part de l'AGI dans l'interface que j'ai avec cette chose ? Et quelle est la part de la sagesse qu'elle renferme ? Une partie de moi pense que l'on pourrait avoir un modèle capable d'une "super intelligence" et qu'on ne l'a pas encore tout à fait débloquée. C'est ce que j'ai vu avec ChatGPT ». Altman a parlé ensuite des dangers potentiels de l'AGI et de ses avantages.

    Altman a déclaré cette semaine dans le forum Reddit r/singularity que son entreprise avait mis au point une IA de niveau humain, mais il s'est tout de suite ravisé et a affirmé que le produit développé par OpenAI ne faisait que "mimer" l'intelligence humaine. Certains critiques l'ont accusé de faire la publicité mensongère. « De toute évidence, il s'agit juste d'un mème, vous n'avez pas froid aux yeux, lorsque l'AGI sera réalisée, elle ne sera pas annoncée par un commentaire sur Reddit », a-t-il déclaré.

    Elon Musk, PDG de Tesla et de X.ai

    Musk a créé une nouvelle startup d'IA, xAI, pour se lancer dans la course à l'IA. Avec xAI, Musk a rassemblé plusieurs experts en IA, avec l'objectif audacieux de "comprendre la vraie nature de l'univers". « L'objectif principal de xAI est de construire une AGI meilleure dont le but principal est d'essayer de comprendre l'univers. Je pense que nous pouvons créer une alternative compétitive qui, je l'espère, sera meilleure que Google DeepMind, OpenAI ou Microsoft », a déclaré Musk. Bien qu'il n'ait pas dit comment il compte y arriver, il a indiqué une date précise à laquelle il s'attend à ce que l'AGI devienne une réalité : à peu près en 2029.

    Geoffrey Hinton, lauréat du prix Turing et ex-Googler

    Geoffrey Hinton est un chercheur canadien spécialiste de l'IA et plus particulièrement des réseaux de neurones artificiels. Ancien membre de l'équipe Google Brain, il a choisi de quitter son poste pour mettre en garde contre les risques de l'IA. Après son départ, il a prédit le moment où l'IA dépassera l'intelligence humaine. « Je prédis maintenant cinq à 20 ans, mais sans grande confiance. Nous vivons une époque très incertaine. Il est possible que je me trompe totalement sur le fait que l'intelligence numérique nous dépasse. Personne ne le sait vraiment et c'est la raison pour laquelle nous devrions nous inquiéter dès maintenant », a-t-il déclaré en mai.

    Ray Kurzweil, auteur, chercheur et futurologue

    Ray Kurzweil, chercheur et célèbre futurologue américain, a fait de nombreuses prédictions au fil des ans et quelques-unes se sont avérées admirablement précises. Lors de la conférence SXSW 2017 à Austin, au Texas, Ray Kurzweil a fait la prédiction suivant : « d'ici 2029, les ordinateurs auront une intelligence de niveau humain. Cela signifie que les ordinateurs auront une intelligence humaine, que nous les mettrons dans nos cerveaux, que nous les connecterons au cloud et que nous élargirons ce que nous sommes. Aujourd'hui, il ne s'agit pas seulement d'un scénario futur. C'est déjà le cas, en partie, et cela va s'accélérer ».

    Ben Goertzel, PDG de SingularityNET

    Figure controversée dans les milieux technologiques, Ben Goertzel a contribué à populariser le terme AGI. Il est également enclin à faire des déclarations audacieuses sur l'avenir de la technologie. Lors d'une conférence en 2018, il en a ajouté quelques-unes. « Je ne pense pas que nous ayons besoin d'algorithmes fondamentalement nouveaux. Je pense que nous devons connecter nos algorithmes d'une manière différente de ce que nous faisons aujourd'hui. Si j'ai raison, alors nous avons déjà les algorithmes de base dont nous avons besoin. Je pense que nous sommes à moins de dix ans de la création d'une IA de niveau humain », a-t-il déclaré.

    Mais il a ajouté une phrase laissant penser qu'il plaisantait à propos de cette prédiction. « Cela se produira le 8 décembre 2026, le jour de mon 60e anniversaire. Je retarderai l'événement jusqu'à cette date pour organiser une grande fête d'anniversaire », a-t-il ajouté.

    John Carmack, développeur de Doom

    John Carmack pense que l'AGI pourrait être atteinte d’ici 2030 et a lancé un partenariat avec un institut de recherche en Alberta pour en accélérer le développement. Carmack a fait part de son point de vue lors d'un événement organisé à l'occasion de l'annonce de l'embauche de Richard Sutton, conseiller scientifique en chef de l'Alberta Machine Intelligence Institute, par Keen, sa startup consacrée au développement de l’AGI. Sutton est d'avis qu'il n'est pas impossible de coder une AGI avec les techniques actuelles et considère l'année 2030 comme un objectif envisageable pour qu'un prototype d'IA montre des signes de conscience.

    Yoshua Bengio, professeur d'informatique à l'Université de Montréal

    Yoshua Bengio est également un lauréat du prix Turing. Comme son ami et collègue Yann LeCunn, lauréat du prix Turing, Bengio préfère le terme "intelligence de niveau humain" à celui d'intelligence artificielle. Quoi qu'il en soit, il est sceptique quant aux prédictions concernant son avènement. « Je ne pense pas qu'il soit plausible de savoir quand, dans combien d'années ou de décennies, il faudra atteindre l'IA de niveau humain », a déclaré Bengio.

    Demis Hassabis, PDG de Google DeepMind

    Demis Hassabis a fait de Google DeepMind (anciennement DeepMind), dont le siège est à Londres, en Angleterre, l'un des principaux laboratoires d'IA au monde. Sa mission principale est de développer une AGI. Il définit l'AGI comme "une cognition de niveau humain" et a déclaré au début de l'année : « les progrès réalisés ces dernières années ont été assez incroyables. Je ne vois aucune raison pour que ces progrès ralentissent. Je pense même qu'ils pourraient s'accélérer. Je pense donc que nous ne sommes plus qu'à quelques années, voire à une décennie près ». Il partage également l'avis selon lequel l'AGI est une menace existentielle pour l'humanité.

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de la notion d'AGI et des controverses qui l'entourent ?
    Que pensez-vous des prédictions sur la date d'arrivée de la première forme d'AGI ? Sont-elles réalistes ?
    Comment saurons-nous que nous avons atteint une forme d'AGI ? En existe-t-il déjà ?
    Les systèmes d'IA actuels laissent-ils entrevoir l'arrivée prochaine d'une forme d'AGI ? Pourquoi ?
    Partagez-vous l'avis selon lequel une forme d'AGI ne sera jamais atteinte ? Pourquoi ?

    Voir aussi

    John Carmack, développeur de Doom, pense que l'IA générale (AGI) est réalisable d'ici 2030 et lance un partenariat avec un institut de recherche en Alberta pour en accélérer le développement

    Microsoft prétend que GPT-4 montre des « étincelles » d'intelligence artificielle générale : « nous pensons que l'intelligence de GPT-4 signale un véritable changement de paradigme »

    La menace que l'IA fait peser sur le monde pourrait être "plus urgente" que le changement climatique, selon Geoffrey Hinton, un des pionniers de la recherche en intelligence artificielle

  3. #43
    Membre expérimenté
    Homme Profil pro
    retraité
    Inscrit en
    Septembre 2014
    Messages
    643
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : retraité

    Informations forums :
    Inscription : Septembre 2014
    Messages : 643
    Points : 1 520
    Points
    1 520
    Par défaut
    Si c'est pour atteindre le niveau de notre brave Président interviewé par deux de nos meilleurs journalistes ces derniers jours,
    alors c'est franchement un gaspillage d'argent et de ressources naturelles pour rien...

  4. #44
    Membre expérimenté
    Homme Profil pro
    retraité
    Inscrit en
    Septembre 2014
    Messages
    643
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : retraité

    Informations forums :
    Inscription : Septembre 2014
    Messages : 643
    Points : 1 520
    Points
    1 520
    Par défaut
    Et si on utilisait ces systèmes pour trouver une parade juridique permettant d'expulser tous ces narco-trafiquants qui pourrissent notre pays ?



    Vous en voulez encore ?

  5. #45
    Membre éclairé
    Homme Profil pro
    autre
    Inscrit en
    Juin 2014
    Messages
    203
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Aveyron (Midi Pyrénées)

    Informations professionnelles :
    Activité : autre

    Informations forums :
    Inscription : Juin 2014
    Messages : 203
    Points : 676
    Points
    676
    Par défaut
    Et si on utilisait ces systèmes pour trouver une parade juridique permettant d'expulser tous ces caucasiens-fraudeurs-fiscaux qui pourrissent notre pays ?

    Et si on utilisait ces systèmes pour trouver une parade juridique permettant d'expulser tous ces fachos-répandeurs-de-haine-étriqueurs-de-cerveaux qui pourrissent notre pays ?

    Et si on utilisait ces systèmes pour trouver une parade juridique permettant d'expulser toutes ces gauchos-révolutio-terroristo-écologistes qui pourrissent notre pays ?


    Réduire des problèmes complexes à des solutions simples, c'est pratique pour le cerveau, surtout quand on a pas trop l'habitude de le faire fonctionner.
    Voir tous les travers de notre société par un prisme qui nous permet d'identifier un coupable unique à tous les maux, on appelle ça être victime d'une théorie du complot. Contrairement à ce qu'on pense souvent, ça ne concerne pas que les gens qui sont persuadés qu'on nous cache des petits hommes verts et les gens qui dénoncent un complot mondial : c'est un vrai phénomène décrit en psychologie/sociologie, y'a des théories du complot de gauche ou de droite, des théoriciens du complot issus des classes ouvrières ou de la bourgeoisie, le panel est très large. À ton avis, tu te situes où ?

  6. #46
    Membre éprouvé
    Homme Profil pro
    Intégrateur Web
    Inscrit en
    Août 2012
    Messages
    273
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : Intégrateur Web
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Août 2012
    Messages : 273
    Points : 1 079
    Points
    1 079
    Par défaut Bien sûr....
    Citation Envoyé par TotoParis Voir le message
    Et si on utilisait ces systèmes pour trouver une parade juridique permettant d'expulser tous ces négro-narco-trafiquants qui pourrissent notre pays ?
    Bien sûr, les narco-trafiquants français de souche n'existent absolument pas et ne peuvent absolument pas exister... le narco-trafiquant doit absolument être négro-quelque-chose, ou à tout le moins non-français de souche Peut-être Belge ? Hollandais ? Danois ?

    Au fait, les français de souche, ça habite dans des vieux troncs d'arbre ?

  7. #47
    Membre éprouvé
    Homme Profil pro
    Analyste d'exploitation
    Inscrit en
    Juin 2022
    Messages
    330
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 39
    Localisation : France, Puy de Dôme (Auvergne)

    Informations professionnelles :
    Activité : Analyste d'exploitation

    Informations forums :
    Inscription : Juin 2022
    Messages : 330
    Points : 1 089
    Points
    1 089
    Par défaut
    Citation Envoyé par sirthie Voir le message
    Bien sûr, les narco-trafiquants français de souche n'existent absolument pas et ne peuvent absolument pas exister... le narco-trafiquant doit absolument être négro-quelque-chose, ou à tout le moins non-français de souche Peut-être Belge ? Hollandais ? Danois ?

    Au fait, les français de souche, ça habite dans des vieux troncs d'arbre ?
    En vrai j'ai jamais compris ces arguments types:

    « Les humains ont 5 doigts.
    - Bien sûr, la polydactylie n'existe pas et ne peuvent absolument pas exister. »

    Chaque fois j'ai l'impression que ça passe à côté du sujet au lieu d'y répondre

  8. #48
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    1 020
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 020
    Points : 18 059
    Points
    18 059
    Par défaut OpenAI travaillerait en secret sur un programme d'IA proche d'une intelligence générale artificielle
    OpenAI travaille-t-elle en secret sur un programme d'IA proche d'une forme d'intelligence générale artificielle ?
    Une rumeur évoque un modèle d'IA qui surpasserait de loin les performances de GPT-4

    OpenAI travaillerait sur un puissant modèle d'IA baptisé "Arrakis" en interne. La rumeur indique qu'il s'agit d'un modèle d'IA "révolutionnaire" dont les capacités dépassent de loin celles de GPT-4 et seraient même proches d'une intelligence artificielle générale (AGI). Arrakis devrait être en mesure de traiter du texte, de la vidéo, de l'audio et des images, ainsi que n'importe quelle combinaison de texte, d'image, audio et vidéo. Il devrait en outre égaler ou surpasser le prochain modèle Gemini de Google en matière de performance. La rumeur intervient après que Sam Altman, PDG d'OpenAI, a déclaré que l'entreprise avait atteint une forme d'AGI, avant de se raviser.

    « Arrakis surpasse de loin GPT-4 et est très proche de l'AGI », note l'auteur de la fuite, un internaute utilisant le pseudonyme Jimmy_Apples. La référence à l'AGI a enflammé Reddit, et le compte X (ex-Twitter) de Jimmy_Apples s'est soudainement fermé après l'apparition de la rumeur. L'intéressé a déclaré qu'Arrakis n'était pas censé être lancé dans les 12 prochains mois, mais qu'il pourrait être avancé à 2024. La rumeur ajoute qu'OpenAI pourrait même lancer Arrakis en plusieurs parties, en ouvrant progressivement l'accès aux différentes modalités, ce qui signifie que le grand public pourrait déjà l'avoir vu avec la récente mise à jour appelée GPT-4V.

    Selon la startup, GPT-4V (GPT-4 avec vision) permet aux utilisateurs d'ordonner au GPT-4 d'analyser les entrées d'images fournies par l'utilisateur. Cette fonctionnalité marque l'évolution de GPT-4 vers un modèle multimodal. Cela signifie que le modèle peut accepter plusieurs "modalités" d'entrée et renvoyer des résultats basés sur ces entrées. Avec GPT-4V, l'utilisateur peut télécharger une image comme entrée et poser une question sur l'image. Les modèles Bing Chat de Microsoft et Bard de Google sont également des modèles multimodaux. Mais cela ne fait pas de ces modèles une forme d'AGI, ce qui signifie que GPT-4V est également loin de l'être.


    L'intelligence artificielle générale est une forme "hypothétique" d'intelligence artificielle dans laquelle une machine peut apprendre et penser comme un humain. Pour que cela soit possible, l'AGI devrait avoir une conscience de soi et une conscience tout court, afin de pouvoir résoudre des problèmes, s'adapter à son environnement et effectuer un plus large éventail de tâches. Si l'AGI - également appelée "IA forte" - semble relever de la science-fiction, c'est parce qu'elle est encore d'actualité. Les formes d'IA existantes n'ont pas encore atteint le niveau de l'AGI, mais les chercheurs en IA et les entreprises travaillent toujours pour en faire une réalité.

    L'IA (dite faible) est en fait formée à partir de donnée pour effectuer des tâches spécifiques ou une série de tâches limitées à un seul contexte. Plusieurs formes d'IA s'appuient sur des algorithmes ou des règles prédéfinies pour guider leurs actions et apprendre à fonctionner dans un certain environnement. Par contre, l'AGI se veut capable de raisonner et de s'adapter à de nouveaux environnements et à différents types de données. Au lieu de dépendre de règles prédéfinies pour fonctionner, l'AGI adopte une approche de résolution de problèmes et d'apprentissage. L'AGI est censée faire preuve des mêmes capacités de raisonnement que les humains.

    Jimmy_Apples a laissé entendre que Arrakis pourrait être un modèle un ensemble de plusieurs modèles plus petits. Ce dernier a affirmé au début de l'année qu'OpenAI travaille sur un modèle de 125 000 milliards de paramètres. OpenAI a publié GPT-4 en mars, mais n'a pas précisé sa taille. En juin, Soumith Chintala, cocréateur de la bibliothèque logicielle PyTorch et chercheur en IA au sein de la division Meta AI Research, a déclaré que GPT-4 n'était pas un LLM, mais était composé de plusieurs systèmes plus petits sous la forme d'une une architecture de mélange d'experts (Mixture of Experts - MoE). D'autres analystes soutiennent également cette thèse.

    Les allégations selon lesquelles OpenAI travaillerait sur un modèle de 125 000 milliards de paramètres ne convainquent pas tout le monde. Certains estiment qu'OpenAI ne dispose pas actuellement des moyens pour le faire. Selon d'autres critiques, pour entraîner un tel modèle OpenAI aurait besoin d'environ 74 000 GPU Nvidia H100 et, bien que cela soit improbable, ils estiment que c'est peut-être réalisable avec l'argent de Microsoft. La rumeur a également attiré l'attention d'autres experts, dont Bojan Tunguz, ingénieur logiciel chez Nvidia. « Dernières nouvelles : OpenAI a obtenu une AGI en interne », a déclaré Bojan dans un message sur X le mois dernier.

    OpenAI n'a pas commenté la rumeur selon laquelle elle travaillerait sur un modèle d'IA proche d'une d'AGI. Toutefois, Sam Altman, PDG d'OpenAI, a récemment laissé entendre sur Reddit que l'entreprise avait atteint une forme d'AGI. « L'intelligence générale artificielle a été atteinte en interne », a-t-il déclaré. Mais cette déclaration a rapidement suscité un tollé et il a ensuite nuancé ses propos. Altman a ajouté : « de toute évidence, il s'agit juste d'un mème, vous n'avez pas froid aux yeux, lorsque l'AGI sera réalisée, elle ne sera pas annoncée par un commentaire sur Reddit ». Certains ont fait un rapprochement avec les allégations de Jimmy_Apples.

    Les références à l'AGI suscitent généralement beaucoup de réactions en raison du fait qu'il s'agit d'un sujet sensible. Eden Zoller, analyste en chef de l'IA appliquée chez Omdia, une entreprise britannique spécialisée dans l'analyse stratégique concernant l'industrie des réseaux et des télécommunications, a fait remarquer que même si l'AGI n'est pas mauvaise en soi, elle a la capacité, en l'absence d'un alignement solide et de restrictions, d'amplifier les risques et les dommages, ce qui pourrait potentiellement conduire à des risques extrêmes. Les modèles de fondation avancés et les entreprises qui les construisent font donc l'objet d'un examen minutieux.

    Selon certains, une fois créée, l'AGI se rendra compte rapidement qu'il serait préférable qu'il n'y ait plus d'humains, car ces derniers pourraient décider de l'éteindre. Il s'agit d'un scénario dystopique perpétuant les craintes apocalyptiques illustrées dans les films tels que la franchise Terminator. Nick Bostrom, de l'université d'Oxford, a évoqué ce scénario hypothétique dans son ouvrage de référence, Superintelligence, dans lequel il décrit les risques existentiels liés à l'AGI. L'une des expériences de pensée par Bostrom implique une IA hors de contrôle qui détruit l'humanité bien qu'elle ait été conçue pour poursuivre des objectifs apparemment inoffensifs.

    Connue sous le nom de Paperclip Maximiser, l'expérience décrit une IA dont le seul but est de fabriquer autant de trombones que possible. « Le corps humain contient beaucoup d'atomes pouvant être transformés en trombones. L'avenir vers lequel l'IA essaierait de s'orienter serait un avenir où il y aurait beaucoup de trombone, mais pas d'humains », écrit le professeur Bostrom. À la suite du message d'Altman sur Reddit, Will Depue, chercheur à OpenAI, a publié sur X une image générée par l'IA avec la légende : « dernières nouvelles : les bureaux de l'OpenAI débordent de trombones ! ». Certains estiment toutefois qu'il y a des discussions plus urgentes.

    Le nom Arrakis provient du roman Dune de Frank Herbert. Arrakis est le nom de la planète désertique fictive. Dans l'univers du livre, une IA a pris le dessus sur l'humanité et lui a interdit de construire quoi que ce soit qui s'apparente à la technologie.

    Et vous ?

    Quel est votre avis sur le sujet ?
    La rumeur selon laquelle OpenAI a atteint une forme d'AGI est-elle fondée ?
    Comment expliquez-vous toute l'agitation qui entoure l'AGI ? Est-ce un buzzword ?
    Sommes-nous en mesure de construire une forme d'intelligence générale artificielle ?
    Quels pourraient être les impacts d'une telle technologie sur l'humanité ?
    Quel est votre avis sur les risques existentiels évoqués par certains experts en IA ?
    Quid des scénarios dystopiques imaginés par certains experts en IA ?

    Voir aussi

    Comment saurons-nous que nous avons atteint une forme d'intelligence générale artificielle ? Pour certains experts en IA, ce sera lorsque la machine aura une cognition de niveau humain

    The Creator : ce film fait une utilisation innovante de la technologie du cinéma et propose une autre perspective au regard porté sur les IA, il pourrait contribuer à un changement dans l'industrie

    La plupart des détecteurs d'IA sont incapables de déterminer si un courriel de phishing a été rédigé par un robot, d'après la plateforme de sécurité de messagerie Egress

  9. #49
    Membre régulier
    Homme Profil pro
    Formateur suite Adobe, Blender, et écrivain d'anticipation, polar et SF
    Inscrit en
    Janvier 2005
    Messages
    36
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 56
    Localisation : France, Nord (Nord Pas de Calais)

    Informations professionnelles :
    Activité : Formateur suite Adobe, Blender, et écrivain d'anticipation, polar et SF

    Informations forums :
    Inscription : Janvier 2005
    Messages : 36
    Points : 103
    Points
    103
    Par défaut L'IA destructrice, bla bla bla
    Le modèle Bing Chat EST chatGPT. C'est quoi ces infos qui tentent de faire croire à une pluralité des modèles.
    Actuellement, il y a Google et OpenAI point.
    Les autres ne sont tellement pas médiatisées que ces solutions sont inexistantes dans le paysage (et c'est bien dommage).

    Je ne vais pas éplucher tout l'article mais une IA généraliste, qui penserait comme une humain sera ni plus ni moins qu'une nouvelle forme de vie. Une nouvelle conscience (oui c'est le titre de mon roman - 2019).
    Mais penser comme une humain, ça veut dire aussi ressentir des émotions.
    Sans émotion (au moins une), alors cette nouvelle pensée n'aura rien d'humaine. Elle sera froidement logique. Mais ça n'en fera pas un ennemie de l'humain pour autant.
    Reprendre la sempiternelle musique de la destruction de l'Humanité est juste... fatiguant.

    Cette nouvelle forme de pensée fera bien ce qu'elle veut avec les infos qu'on lui donnera, et elle pourra être tellement de choses, notamment une aide précieuses en sciences, en urbanisme, dans la transition écologique ou même, pourquoi pas, en économie.
    De plus, "cette" IA pourrait ne pas venir au monde seule, mais accompagnée de toute une ribambelle de petites soeurs open source, qui pourront se mettre au service de la population, l'aidant à résoudre tout un tas de problème courant... ou pas.

  10. #50
    Communiqués de presse

    Femme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2018
    Messages
    2 135
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Âge : 34
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Mai 2018
    Messages : 2 135
    Points : 158 408
    Points
    158 408
    Par défaut L'intelligence artificielle générale deviendra réalité d'ici 10 ans, selon le PDG de SoftBank
    L'intelligence générale artificielle (AGI), qui surpasse l'intelligence humaine dans presque tous les domaines, verrait le jour d'ici 10 ans, a déclaré Masayoshi Son, PDG de SoftBank

    S'exprimant lors de la conférence d'entreprise SoftBank World, M. Son a déclaré qu'il pensait que l'AGI serait dix fois plus intelligente que la somme totale de l'intelligence humaine. Il a souligné les progrès rapides de l'IA générative qui, selon lui, a déjà dépassé l'intelligence humaine dans certains domaines.

    Nom : np_file_194497.jpg
Affichages : 4261
Taille : 9,9 Ko

    "Il est faux de dire que l'IA ne peut pas être plus intelligente que l'homme, car elle est créée par l'homme", a-t-il déclaré. "L'IA est désormais capable de s'auto-apprendre, de s'auto-former et de s'auto-inférencer, tout comme les êtres humains."

    Depuis quelques années, M. Son évoque le potentiel de l'AGI - en utilisant généralement le terme "singularité" - pour transformer les entreprises et la société, mais c'est la première fois qu'il donne un calendrier pour son développement.

    Lors de la conférence, il a également introduit l'idée d'une "superintelligence artificielle" qui, selon lui, sera réalisée dans 20 ans et surpassera l'intelligence humaine par un facteur de 10 000.

    M. Son est connu pour ses paris judicieux qui ont fait de SoftBank un géant de l'investissement technologique, mais aussi pour ses échecs spectaculaires.

    Il est également enclin à faire des déclarations fracassantes sur l'impact transformateur des nouvelles technologies. Ses prédictions concernant l'internet mobile se sont largement vérifiées, contrairement à celles concernant l'internet des objets.

    M. Son a appelé les entreprises japonaises à "se réveiller" face aux promesses de l'IA, arguant qu'elles avaient pris du retard à l'ère de l'internet, et a réaffirmé sa confiance dans le concepteur de puces Arm, qui est au cœur de la "révolution de l'IA".

    Le PDG d'Arm, René Haas, qui s'est exprimé lors de la conférence par vidéo, a vanté l'efficacité énergétique des conceptions d'Arm, affirmant qu'elles seraient de plus en plus recherchées pour alimenter l'intelligence artificielle.

    M. Son a déclaré qu'il pensait être la seule personne à croire que l'intelligence artificielle verrait le jour d'ici une dizaine d'années. M. Haas a déclaré qu'il pensait qu'elle verrait le jour de son vivant.



    Source : Masayoshi Son, PDG de SoftBank, lors de la conférence d'entreprise SoftBank World

    Et vous ?

    Trouvez-vous l'opinion de Masayoshi Son pertinente ?
    Que pensez-vous de l'AGI ?

    Voir aussi :

    Microsoft prétend que GPT-4 montre des « étincelles » d'intelligence artificielle générale, « nous pensons que l'intelligence de GPT-4 signale un véritable changement de paradigme »

    « L'atteinte d'une forme d'intelligence artificielle de niveau humain (AGI) est possible dans une décennie », d'après le PDG de Google Deepmind, pour le développement responsable des systèmes d'IA

    L'intelligence artificielle vous effraie-t-elle ? L'humanité court le risque d'extinction au travers des robots tueurs autonomes, ainsi que l'atteinte du stade d'intelligence artificielle générale

    Sam Altman laisse entendre qu'il veut remplacer les « humains médians » par une Intelligence Artificielle Générale, des propos qui ont suscité la controverse

  11. #51
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 997
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 997
    Points : 38 832
    Points
    38 832
    Par défaut Prévoir l'arrivée de l'AGI : une étude souligne le risque existentiel imminent pour l'humanité
    Prévoir l'arrivée de l'AGI : une étude souligne le risque existentiel imminent pour l'humanité,
    qui pourrait être confrontée à son plus grand et son plus proche péril existentiel

    Une étude utilise des modèles économiques pour estimer la date d’arrivée de l’intelligence artificielle de niveau humain (AGI), c’est-à-dire une intelligence artificielle capable de réaliser toutes les tâches intellectuelles humaines. Selon cette étude, la date moyenne prévue pour l’AGI est 2041, avec une fourchette probable de 2032 à 2048, et une date la plus proche possible de 2028. L’étude souligne que l’AGI représente un risque existentiel imminent pour l’humanité, qui pourrait survenir avant les effets du réchauffement climatique.

    L’étude retrace également l’évolution historique de la recherche et de la technologie en informatique et en intelligence artificielle, en mettant en évidence les progrès récents dans les systèmes de langage génératif et les avertissements des experts sur les dangers potentiels de l’AGI. L’AGI désigne un type de système d’IA capable de réaliser toutes les tâches intellectuelles d’un être humain. Autrement dit, l’AGI a une compréhension générale du monde et peut s’adapter à de nouvelles situations et environnements, tout comme le ferait un être humain.


    L’IA se rapproche plus vite que prévu des capacités humaines. Les progrès rapides de l’IA dans des domaines comme le traitement du langage naturel (NLP) ont relancé le débat sur ce concept qui serait pour certains observateurs largement spéculatif. ChatGPT est une innovation majeure dans le domaine du traitement du langage naturel. Ce modèle de génération de langage à la pointe de la technologie a déjà démontré son efficacité dans divers secteurs. L’évolution rapide de l’IA ces derniers mois montre que l’ère de l’IA est déjà là. De nombreuses entreprises technologiques, comme Baidu et Google BARD, travaillent déjà sur leurs propres modèles concurrents pour ChatGPT.

    Nom : agi.jpg
Affichages : 14918
Taille : 45,6 Ko

    Toutefois, il faut souligner que ce que nous avons accompli jusqu’à présent est une forme d’intelligence artificielle étroite (ANI). Ces systèmes d’IA sont conçus pour réaliser des tâches spécifiques, comme la reconnaissance d’images ou le jeu d’échecs, mais ils n’ont pas la compréhension générale du monde qu’aurait une intelligence artificielle générale.

    Selon les chercheurs, le prochain quart de siècle jusqu'au milieu du XXIe siècle verra probablement l'arrivée de l'AGI et de tous les défis et risques qu'elle peut apporter à l'humanité, y compris des changements existentiels et catastrophiques, auxquels les générations actuelles, et pas seulement futures, devront faire face et qu'elles devront gérer.

    L’AGI, une réalité proche et incertaine

    L'étude appuie donc les alertes récentes sur les dangers existentiels à l’horizon 2023 émises par les principaux acteurs de la technologie de l’IA, tels que Hinton, Hassibis et Bengio. Par contre, elle ne va pas dans le sens des philosophes qui minimisent ou détournent les accusations de risque existentiel de l’IA, et qui se heurtent à des obstacles insurmontables dans les questions abstraites, comme celle de la conscience de l’IA.

    Selon le PDG de Google Deepmind, « Il est possible d’atteindre une forme d’intelligence artificielle au niveau humain dans une décennie », ce qui donnerait aux machines un « sens commun. » À ce stade d’intelligence artificielle générale, elles seraient capables de raisonnement causal, c’est-à-dire de cette aptitude à réfléchir sur « la raison pour laquelle les choses se passent. »

    En attendant d’y arriver, le PDG de Google Deepmind préconise de développer les systèmes d’intelligence artificielle de manière responsable pour une transition en douceur. « Je suis favorable à ce que nous continuions à travailler sur des systèmes d’IA à utiliser comme des outils pour nous aider à mieux les comprendre avant de passer à un autre niveau », admet-il en ajoutant que « cette approche peut permettre une meilleure exploration des mystères de la conscience. »

    Pour Masayoshi Son, PDG de SoftBan, l'intelligence générale artificielle verrait le jour d'ici 10 ans. S'exprimant lors de la conférence d'entreprise SoftBank World, il a déclaré : « Il est faux de dire que l'IA ne peut pas être plus intelligente que l'homme, car elle est créée par l'homme. L'IA est désormais capable de s'auto-apprendre, de s'auto-former et de s'auto-inférencer, tout comme les êtres humains. »

    Depuis quelques années, Son évoque le potentiel de l'AGI - en utilisant généralement le terme "singularité" - pour transformer les entreprises et la société, mais c'est la première fois qu'il donne un calendrier pour son développement.

    Comme la date d'arrivée de l'AGI est estimée, selon l’étude, à un quart de siècle ou au milieu du XXIe siècle, il est presque certain qu'elle se produira avant que l'urgence du réchauffement planétaire ne prenne effet. Et comme l'AGI pourrait comporter un risque existentiel pour l'homme, on peut en conclure et en déduire que l'AGI est probablement le risque existentiel potentiel le plus important et le plus imminent pour l'humanité, et qu'il convient donc de s'en préoccuper de toute urgence et à l'échelle mondiale dès à présent. Une hypothèse initiale prudente pourrait donc être que nous nous trouvons actuellement quelque part entre 5 % et 30 % du chemin à parcourir pour passer de l'absence d'AGI à l'AGI complète.

    Un chemin semé d’innovations et de dangers

    La question suivante est de savoir à quelle vitesse nous avançons, année après année, sur ce chemin vers l’AGI. Il est évident qu’il y a eu une longue période dans l’histoire de l’humanité, disons de 500 000 ans à 1900, où l’on pourrait dire qu’il n’y a pas eu d’avancée mécanique vers l’AGI, même si des découvertes importantes en physique et en mathématiques ont été faites, surtout vers la fin de cette période, qui forment la base conceptuelle du développement de l’AGI.

    De même, de 1900 à 1960, par exemple, avec l’apparition des premiers transistors électroniques, il y a eu plus de recherche fondamentale sur la théorie de l’AGI, la théorie de l’informatique s’est développée et les premiers grands ordinateurs centraux ont été construits. La période de 1960 à 2000 a connu d’immenses progrès dans la technologie des puces d’ordinateur et le développement des puces graphiques, des PC et des serveurs.

    Nom : AGI2.jpg
Affichages : 4161
Taille : 43,4 Ko
    C'est pour quand ? Prédire la date d'arrivée prévue de l'AGI


    La période 2000-2020 a été marquée par l’explosion des technologies de l’information, des télécommunications et des réseaux sociaux, ainsi que par la connexion de tous les habitants de la planète. La période de 2020 à 2023+, malgré la crise du Covid, a vu l’apparition publique de systèmes d’IA générative à grand modèle de langage LLM, tels que : ChatGPT, GPT4, Bard et, au premier semestre 2023, des alertes de la part des principaux scientifiques qui ont créé ces systèmes, d’un risque existentiel possible si le développement non régulé continue.

    L’intelligence, l’IA et l’AGI : une tentative de définition et de compréhension

    Il existe une littérature riche et continue qui essaie de proposer des définitions plus formelles et plus complètes de l’intelligence, de l’IA et de l’AGI, mais aucune d’elles n’est sans problèmes ou controverses. Par exemple, Legg et Hutter proposent une définition de l’AGI centrée sur les objectifs : l’intelligence mesure la capacité d’un agent à atteindre des objectifs dans une grande variété d’environnements.

    Cependant, cette définition n’englobe pas forcément tout le spectre de l’intelligence, car elle exclut les systèmes passifs ou réactifs qui peuvent accomplir des tâches complexes ou répondre à des questions sans motivation ou objectif intrinsèque. On pourrait imaginer une AGI, un oracle brillant par exemple, qui n’a pas d’agence ni de préférences, mais qui peut fournir des informations précises et utiles sur n’importe quel domaine.

    De plus, la définition de la réalisation d’objectifs dans une grande variété d’environnements implique aussi un certain degré d’universalité ou d’optimalité, qui n’est peut-être pas réaliste (l’intelligence humaine n’est certainement jamais universelle ni optimale). La nécessité de reconnaître l’importance du contexte (par opposition à l’universalité) a été soulignée dans la définition proposée par Cholletin, qui centre l’intelligence sur l’efficacité de l’acquisition des compétences ou, en d’autres termes, met l’accent sur l’apprentissage par l’expérience (qui s’avère également être l’une des principales faiblesses des LLM).

    Il n’y a pas de définition de l’intelligence qui fasse l’unanimité, mais un aspect largement admis est que l’intelligence ne se limite pas à un domaine ou à une tâche spécifique, mais qu’elle couvre plutôt un large éventail de compétences cognitives et d’aptitudes. Dans leurs premiers écrits, les fondateurs du domaine moderne de la recherche sur l’intelligence artificielle (IA) ont parlé d’objectifs ambitieux pour comprendre l’intelligence.

    Au fil des décennies, les chercheurs en IA ont étudié les principes de l’intelligence, y compris les mécanismes généralisables de raisonnement et la construction de bases de connaissances contenant un large corpus de connaissances de bon sens. Cependant, beaucoup des succès récents de la recherche en IA peuvent être décrits comme étant étroitement focalisés sur des tâches et des défis bien définis, tels que le jeu du Chorus ou du Go, qui ont été maîtrisés par des systèmes d’IA en 1996 et 2016, respectivement.


    La singularité de l’IA fait référence à un futur hypothétique où l’intelligence artificielle dépasse l’intelligence humaine et évolue potentiellement hors du contrôle humain. Elle est souvent associée à des scénarios dans lesquels les machines deviennent conscientes d’elles-mêmes et constituent une menace pour l’humanité. Cependant, tous les experts ne croient pas que l’AGI conduira à la singularité, et certains pensent que le développement de l’AGI pourrait ne jamais se produire. Jusqu’à présent, l’AGI reste un élément fondamental de la science-fiction, comme en témoignent les films hollywoodiens de science-fiction dystopique.

    Les checheurs présentent les hypothèses de base qui sous-tendent l’analyse, qui consiste à utiliser des modèles économiques pour estimer la date d’arrivée de l’intelligence générale artificielle. Ces hypothèses sont basées sur l’extrapolation et le raisonnement inductif à partir des connaissances actuelles, et impliquent que l’AGI se produira dans un nombre fini d’années à partir de maintenant, qu’elle sera observable et connue a posteriori. Cette distribution peut être utilisée pour produire une estimation de la trajectoire de croissance plausible attendue et une distribution des limites attendues de l’AGI, ainsi qu’une estimation de l’évolution plausible vers l’AGI à 50 %, dans l’hypothèse supplémentaire d’un choc mondial majeur (mais inférieur au niveau de l’Armageddon).

    S’il est vrai que l’analyse des chercheurs sur la date d’arrivée de l’intelligence générale artificielle est intéressante et originale, il n’en est pas moins vrai que la conclusion des chercheurs présente également quelques limites et faiblesses, qui pourraient être améliorées ou discutées. Par exemple :

    • la conclusion ne précise pas comment les modèles économiques sont construits, ni quels sont les paramètres et les données utilisés pour les calibrer. Il serait utile de fournir plus de détails sur la méthodologie employée et sur la robustesse des résultats obtenus ;
    • elle ne tient pas compte des aspects éthiques, sociaux et politiques liés au développement de l’AGI, qui pourraient avoir un impact significatif sur la date d’arrivée et sur les conséquences de l’AGI ;
    • les chercheurs ne mentionne pas les incertitudes et les risques associés aux hypothèses de base, qui pourraient être remises en question ou invalidées par des événements imprévus ou des découvertes scientifiques.

    Source : St Cross College - University of Oxford

    Et vous ?

    L'analyse des chercheurs est-elle pertinente ?

    Quels sont selon vous, les facteurs qui peuvent influencer ou modifier la trajectoire de développement de l’AGI ?

    Pensez-vous que ces facteurs sont correctement pris en compte ou intégrés dans les scénarios de croissance plausibles ?

    Quels sont les impacts potentiels de l’AGI sur la société, l’économie, l’environnement, la culture, l’éthique ? Comment ces impacts peuvent-ils être anticipés, évalués, régulés ou atténués ?

    À votre avis, quels sont les risques et les incertitudes associés aux hypothèses de base de l’analyse ? Comment ces risques et ces incertitudes peuvent-ils être quantifiés, réduits ou gérés ?

    Voir aussi :

    L'intelligence générale artificielle (AGI), qui surpasse l'intelligence humaine dans presque tous les domaines, verrait le jour d'ici 10 ans, a déclaré Masayoshi Son, PDG de SoftBank

    L'atteinte d'une forme d'IA de niveau humain est-elle plus rapide que prévu ? Il y aurait une chance sur deux pour qu'une « AGI » soit conçue, testée et annoncée publiquement d'ici 2040

    « L'atteinte d'une forme d'intelligence artificielle de niveau humain (AGI) est possible dans une décennie », d'après le PDG de Google Deepmind, pour le développement responsable des systèmes d'IA

  12. #52
    Membre extrêmement actif Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 593
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 61
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 593
    Points : 10 557
    Points
    10 557
    Par défaut
    Une étude utilise des modèles économiques pour estimer la date d’arrivée de l’intelligence artificielle de niveau humain
    Ça dépend de l'humain pris en modèle. Tu prends G. Darmanin, ma calculatrice à déjà largement le niveau (et elle date de 1982)

  13. #53
    Membre confirmé
    Homme Profil pro
    Consultant informatique
    Inscrit en
    Février 2018
    Messages
    90
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Côte d'Or (Bourgogne)

    Informations professionnelles :
    Activité : Consultant informatique

    Informations forums :
    Inscription : Février 2018
    Messages : 90
    Points : 462
    Points
    462
    Par défaut
    Et bien il faudrait peut être tout simplement arrêter là et ne pas aller plus loin non? C'est quand même dingue cette capacité qu'un petit nombre d'êtres humain a d'inventer des technologies pouvant mettre en péril l'avenir même de tous les autres.

  14. #54
    Membre émérite Avatar de petitours
    Homme Profil pro
    Ingénieur développement matériel électronique
    Inscrit en
    Février 2003
    Messages
    2 003
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 44
    Localisation : France, Savoie (Rhône Alpes)

    Informations professionnelles :
    Activité : Ingénieur développement matériel électronique
    Secteur : Industrie

    Informations forums :
    Inscription : Février 2003
    Messages : 2 003
    Points : 2 261
    Points
    2 261
    Par défaut
    Citation Envoyé par Mathis Lucas Voir le message
    Comment saurons-nous que nous avons atteint une forme d'AGI ?
    Quand l'IA s'auto-détruira quand on lui donnera la consigne : protéger l'humanité.

    On est de plus en plus nombreux à vivre, on a besoin de remplacer personne.

  15. #55
    Expert confirmé
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 390
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 390
    Points : 4 213
    Points
    4 213
    Par défaut
    Citation Envoyé par Bruno Voir le message
    Une étude utilise des modèles économiques pour estimer la date d’arrivée de l’intelligence artificielle de niveau humain (AGI)
    Je suis désolé mais je m'arrete ici, un modèle économique pour estimer l'arrivée d'une révolution technologique?
    J'ai suivi trop de formation/meeting/colloques et autres sur l'IA générative où on m'explique que l'IA générative est arrivé parce que :
    1. Des nouveaux modèles d'architectures ont été mis à disposition
    2. Le web contient des tonnes de données
    3. Les CPU et GPU ont atteint une performance qui permet d'avoir une IA générative
    4. La réduction des couts de calculs

    L'évolution ne dépends pas que de l'économie, j'entends que le climat part en couille et qu'on commence à se tracasser ce que l'énergie qu'on consomme (enfin surtout les particuliers et les industriels très gros consommateurs européens), j'entends qu'il y a une pénurie de silicium, j'entends que l'eau du monde se réchauffe et que ça va poser problème pour nos différentes centrales et nos centres de calcul.
    Bref j'entends plein de chose qui me suggèrent que l'arrivée de AGI ne dépendra pas de l'économie.

  16. #56
    Expert éminent
    Avatar de calvaire
    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 772
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 772
    Points : 6 554
    Points
    6 554
    Par défaut
    Citation Envoyé par totozor Voir le message
    Je suis désolé mais je m'arrete ici, un modèle économique pour estimer l'arrivée d'une révolution technologique?
    J'ai suivi trop de formation/meeting/colloques et autres sur l'IA générative où on m'explique que l'IA générative est arrivé parce que :
    1. Des nouveaux modèles d'architectures ont été mis à disposition
    2. Le web contient des tonnes de données
    3. Les CPU et GPU ont atteint une performance qui permet d'avoir une IA générative
    4. La réduction des couts de calculs

    L'évolution ne dépends pas que de l'économie, j'entends que le climat part en couille et qu'on commence à se tracasser ce que l'énergie qu'on consomme (enfin surtout les particuliers et les industriels très gros consommateurs européens), j'entends qu'il y a une pénurie de silicium, j'entends que l'eau du monde se réchauffe et que ça va poser problème pour nos différentes centrales et nos centres de calcul.
    Bref j'entends plein de chose qui me suggèrent que l'arrivée de AGI ne dépendra pas de l'économie.
    c'est au contraire l'économie qui va nous sauver.

    si demain y'a un manque d'électricité ou d'eau, des méthodes déjà connu mais pas rentable ou de nouvelles vont émerger. si l'eau manque, le prix va augmenter et on désalinisera l'eau de mer car c'est rentable.
    Barcelone le fait car c'est plus rentable de faire venir des millions de touristes une de rester une petite ville soutenable sur le plan hydrique.
    si l'électricité manque, le prix va augmenter et de nouvelles centrales pas rentable avant vont émerger. Il y'a 1-2 siècles les usines tournait avec un petit moulin installé au bord d'une rivière, ca pourrait bien revenir si c'est rentable.

    le manque de pétrole n'est lui aussi pas un problème, on a déjà des solutions pour faire du carburant de synthèse (a base de c02 en plus), tant que le pétrole restera moins cher par contre ces solutions n'auront évidement aucun avenir.

    si l'AGI est rentable pour les entreprises alors y'aura des solutions pour faire fonctionner des datacenters toujours plus gros toujours plus puissant.

    désolé d'etre cru mais le climat le monde s'en fou, c'est juste un passe temps politique et un hobby pour les bobos occidentaux. chaque années la quantités de rejets de co2 explose, 6 mois l'acceration de rejet de la chine et de l'inde c'est l'équivalent de la france sur 1 années.

    L'écologie, l'inde, la chine, la russie et les usa s'en foute éperdument. La russie a elle tout interet a ce que la planete se réchauffe, chaque années ces récoltes sont de plus en plus abondante.
    L'exemple le plus parlant c'est Dubai, c'est une ville au milieu du d"sert sans eau et ou il fait surper chaud pourtant les habitants la bas vivent comme des rois (grace au pétrole). Dubai a su s'adapter pour vivre sans ces contraintes


    Paris c'est super moche et c'est cher pourtant la majorité des entreprises et des Français y vivent, pendant le covid on voyait des sondages qui disait que 70% des parisiens quitterais paris après le confinement et le résultat on le connais... visiblement les francais kiff Paris.
    Il y'a un gouffre entre les intentions et la réalité.

  17. #57
    Membre extrêmement actif Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 593
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 61
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 593
    Points : 10 557
    Points
    10 557
    Par défaut
    Citation Envoyé par calvaire Voir le message
    désolé d'etre cru mais le climat le monde s'en fou, c'est juste un passe temps politique et un hobby pour les bobos occidentaux.
    En fait le climat, l'écologie, ça sert aux politiques pour faire passer des lois débiles et contraindre les populations. Ex : la voiture électrique et les vignettes "crit'air".
    Comment "obliger" les gens à renouveler les parcs automobiles ? Ben, on interdit les voitures "polluantes" pour les obliger à prendre des voitures électriques. Et évidemment, personne ne dira que la pollution est bien pire pour les voitures électriques que pour les voitures thermiques, car la pollution dégagée n'est pas en France. En amont dans les pays qui exploitent les mines de métaux rares et en aval dans les pays poubelles qui vont récupérer les batteries de nos véhicules "propres" ! (n'oubliez pas d'ajouter à cela, le transport des dites batteries, et n'omettez pas non plus, les batteries des vélos électriques, des trottinettes électriques, des smartphones, etc...)

    Ha ! Le climat ! C'est un peu comme la pédophilie pour les problèmes de sécurité ! Ça sert à emmerder et faire payer les gens. C'est beau le progrès !

  18. #58
    Membre éclairé
    Homme Profil pro
    Urbaniste
    Inscrit en
    Août 2023
    Messages
    387
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Urbaniste

    Informations forums :
    Inscription : Août 2023
    Messages : 387
    Points : 797
    Points
    797
    Par défaut
    Citation Envoyé par calvaire Voir le message
    c'est au contraire l'économie qui va nous sauver.

    si demain y'a un manque d'électricité ou d'eau, des méthodes déjà connu mais pas rentable ou de nouvelles vont émerger. si l'eau manque, le prix va augmenter et on désalinisera l'eau de mer car c'est rentable.
    Barcelone le fait car c'est plus rentable de faire venir des millions de touristes une de rester une petite ville soutenable sur le plan hydrique.
    si l'électricité manque, le prix va augmenter et de nouvelles centrales pas rentable avant vont émerger. Il y'a 1-2 siècles les usines tournait avec un petit moulin installé au bord d'une rivière, ca pourrait bien revenir si c'est rentable.

    le manque de pétrole n'est lui aussi pas un problème, on a déjà des solutions pour faire du carburant de synthèse (a base de c02 en plus), tant que le pétrole restera moins cher par contre ces solutions n'auront évidement aucun avenir.

    si l'AGI est rentable pour les entreprises alors y'aura des solutions pour faire fonctionner des datacenters toujours plus gros toujours plus puissant.

    désolé d'etre cru mais le climat le monde s'en fou, c'est juste un passe temps politique et un hobby pour les bobos occidentaux. chaque années la quantités de rejets de co2 explose, 6 mois l'acceration de rejet de la chine et de l'inde c'est l'équivalent de la france sur 1 années.

    L'écologie, l'inde, la chine, la russie et les usa s'en foute éperdument. La russie a elle tout interet a ce que la planete se réchauffe, chaque années ces récoltes sont de plus en plus abondante.
    L'exemple le plus parlant c'est Dubai, c'est une ville au milieu du d"sert sans eau et ou il fait surper chaud pourtant les habitants la bas vivent comme des rois (grace au pétrole). Dubai a su s'adapter pour vivre sans ces contraintes


    Paris c'est super moche et c'est cher pourtant la majorité des entreprises et des Français y vivent, pendant le covid on voyait des sondages qui disait que 70% des parisiens quitterais paris après le confinement et le résultat on le connais... visiblement les francais kiff Paris.
    Il y'a un gouffre entre les intentions et la réalité.
    vivement la planète étuve que mon système sanguin chaud-froid soit ENFIN rentable. En été je me programme en sang froid, comme les lézards, en hiver, système à sang chaud, il y a même le pré chauffage : D Quand j'aurais enfin remplacé mes omoplates par une paire de batteries au lithium je n'aurais plus ce cordon qui me sort du q pour me connecter au réseaux électrique ! Me manquera plus que les panneaux solaires bustier pour les recharger à toute heure du jour, la nuit ça marche toujours pas : / Mais bon je me console avec mon filtre à micro plastique pré stomacale, moyennant la révision mensuelle, ça marche trop biiiiiiiiiiiiiieeeeeeeeeeeeennnnnnnnnnnnnn faut voir tout ce qu'on en sort à chaque remplacement du filtre : D Houhou vive le futur !

  19. #59
    Expert éminent sénior
    Avatar de Jipété
    Profil pro
    Inscrit en
    Juillet 2006
    Messages
    11 053
    Détails du profil
    Informations personnelles :
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations forums :
    Inscription : Juillet 2006
    Messages : 11 053
    Points : 14 495
    Points
    14 495
    Par défaut
    Citation Envoyé par Jon Shannow Voir le message
    Ha ! Le climat ! C'est un peu comme la pédophilie pour les problèmes de sécurité ! Ça sert à emmerder et faire payer les gens. C'est beau le progrès !
    Jon !
    Tu te prends les pieds dans le tapis, là !
    Je vois bien dans mon jardin la tronche lamentable de mon cerisier et la récolte minable de cette année.
    Et je me souviens bien comment j'ai souffert en août de cette chaleur démente.
    Quant aux ruisseaux de par ici, on va bientôt pouvoir les renommer en chemin, sentier, etc.
    Et ça, ce sont des réalités.
    Des réalités qui emmerdent, oui, mais comment lutter contre, quand presque tout le monde s'en balek ?


    Citation Envoyé par calvaire Voir le message
    Barcelone le fait car c'est plus rentable de faire venir des millions de touristes une de rester une petite ville soutenable sur le plan hydrique.
    Qu'est-ce qu'il dit le monsieur, là ? Rien compris...

  20. #60
    Membre extrêmement actif Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 593
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 61
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 593
    Points : 10 557
    Points
    10 557
    Par défaut
    Citation Envoyé par Jipété Voir le message
    Jon !
    Tu te prends les pieds dans le tapis, là !
    Je vois bien dans mon jardin la tronche lamentable de mon cerisier et la récolte minable de cette année.
    Et je me souviens bien comment j'ai souffert en août de cette chaleur démente.
    Quant aux ruisseaux de par ici, on va bientôt pouvoir les renommer en chemin, sentier, etc.
    Et ça, ce sont des réalités.
    Des réalités qui emmerdent, oui, mais comment lutter contre, quand presque tout le monde s'en balek ?
    Tu n'as pas compris ma remarque (j'ai pas du être clair). Je ne remets pas en cause le dérèglement climatique, bien au contraire.
    Ce que je dis c'est que ce dérèglement sert aux politiques pour nous pondre (sous couvert d'écologie, de lutte contre le ce dérèglement) des lois qui obligent les petites gens à des restrictions, des achats, qui n'ont aucun effet sur le climat, voire même aggravent le phénomène. Alors même qu'aucune décision n'est prise contre les gros pollueurs que sont les multi-milliardaires, les multi-nationales, etc...

Discussions similaires

  1. Réponses: 1
    Dernier message: 09/11/2009, 10h53
  2. Réponses: 0
    Dernier message: 23/09/2009, 13h22
  3. L'État pourrait être le seul actionnaire de l'AFP
    Par ®om dans le forum Politique
    Réponses: 7
    Dernier message: 16/09/2009, 20h20
  4. Steve Jobs pourrait être présent à la WWDC 09 !?
    Par Marcos Ickx dans le forum Apple
    Réponses: 2
    Dernier message: 07/06/2009, 14h09
  5. L'université pourrait être bien?
    Par johankonigsberg dans le forum Etudes
    Réponses: 13
    Dernier message: 07/01/2009, 16h36

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo