IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Débat sur l'I.A (Intelligence Artificielle)


Sujet :

Intelligence artificielle

  1. #141
    Membre à l'essai
    Profil pro
    Inscrit en
    Janvier 2008
    Messages
    13
    Détails du profil
    Informations personnelles :
    Localisation : Belgique

    Informations forums :
    Inscription : Janvier 2008
    Messages : 13
    Points : 15
    Points
    15
    Par défaut
    Citation Envoyé par Garulfo Voir le message
    Pourrais tu me citer un article d'un chercheur qui avance cela? Parce que laisses moi sérieusement en douter. Je ne dis pas que ce n'est pas faisable. Je dis que le « d'ici très peu de temps » c'est du n'importe quoi.
    OK quand je dis "très peu de temps", ça veux dire à l'échelle de notre génération. La littérature regorge de dates. Mais tous les auteurs s'accordent sur une fourchette allant de 2020 à 2050. Même si ça arrivait en 2.100, le boulversement pour notre Humanité serait énorme car rapide. Il a fallut 2 à 3 milliards d'année pour aboutir aux espèces vivantes que nous connaissons ... dont l'homme. L'ordinateur est né il y a 50 ans. Il faudra encore quelques dizaines d'années pour voire apparaître une nouvelle espèce intelligente non-biologique (ou un mix de bio et de techno). Pour ma part, c'est vraiment très très très peu de temps.

    Voici quelque référence :

    Hans Moravec - Robotics Institute Carnegie Mellon University, http://www.frc.ri.cmu.edu/~hpm/ estime l'arrivée de robots completement intelligent vers 2050.

    Nick Bostrom - Directeur du "The Future of Humanity Institute" University of Oxford, http://www.nickbostrom.com/ étudie la notion "d'humain amélioré" (Enhanced Human) , où la technologie fusionnerait avec le biologique grâce aux nanotechnologies (bref, un PC dans le cerveau ...)

    Alain Cardon (tient un Européen ! ..) http://www.alaincardon.net/ qui vient de terminer le prototype d'une machine/logiciel capable de faits de concience et de but. Une machine qui se donne des buts et qui le sait (qui en est consciente). Alain Cardon était jusque l'année dernière Professeur des Universités, à l'Université du Havre et membre permanent du LIP6, Université Paris VI.

    etc, etc, ... il y en a beaucoup d'autres. Ces gens ne sont pas de doux rêveur isolés. Il s'agit là d'équipes de recherche, de labos universitaires largement financés.


    Ceci dit, Carnegie Mellon, que j'évoquais plus haut, vient de remporter le "Grand Challenge 2007". Cette course organisée par le Pentagone (DARPA - les "commenditaire" d'Internet soi-dit en passant) met en compétition des voitures pilotées par ... des logiciels entièrement autonomes. Lors de cette édition les véhicules devaient être capable de rouler dans la circulation en respectant le code de la route. Cette compétition fait suite à une décision prise en 2004 par le Congrès Américain : en 2015, un tiers des véhicules de l'armée américaine devront être entièrement autonome. Et les budget de recherche octroyés par le Pentagone sont colossaux. On parle ici de milliards de dollars.

  2. #142
    Membre à l'essai
    Profil pro
    Inscrit en
    Janvier 2008
    Messages
    13
    Détails du profil
    Informations personnelles :
    Localisation : Belgique

    Informations forums :
    Inscription : Janvier 2008
    Messages : 13
    Points : 15
    Points
    15
    Par défaut
    Citation Envoyé par millie Voir le message
    Ca commence à faire quelques années que la vitesse des processeurs n'augmentent plus vraiment (les processeurs se tournent vers du multi coeurs)
    Ok, peut importe que ce soit 1, 2 ou 64.000 processeurs. Le tout est d'atteindre une vitesse de cacul suffisante et bon marché.

    Aujourd'hui, on en est à 478 Teraflops (IBM-Blue Gene/L) http://www.top500.org/system/8968. or il faut environ 10 ans pour que la puissance délivrée par un super ordinateur se retrouve dans un PC à 1.000 EUR.

  3. #143
    Rédacteur

    Avatar de millie
    Profil pro
    Inscrit en
    Juin 2006
    Messages
    7 015
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2006
    Messages : 7 015
    Points : 9 818
    Points
    9 818
    Par défaut
    Citation Envoyé par singularitor Voir le message
    Ok, peut importe que ce soit 1, 2 ou 64.000 processeurs. Le tout est d'atteindre une vitesse de cacul suffisante et bon marché.

    Aujourd'hui, on en est à 478 Teraflops (IBM-Blue Gene/L) http://www.top500.org/system/8968. or il faut environ 10 ans pour que la puissance délivrée par un super ordinateur se retrouve dans un PC à 1.000 EUR.
    Il y a 7 ans, j'ai acheté un P4 à 1.5 ghz et c'était à peu près le meilleur de l'époque pour un prix de 1500€ (à l'époque en franc). Pourtant, les grand systèmes de l'époque (et encore plus les super calculateurs) battaient à plate couture les ordinateurs que l'on fera dans 3 ans pour 1000€... Je reste très sceptique par rapport à ce que tu dis (au niveau vitesse)

    Les systèmes qui dépassent 4 processeurs ne courent pas les rues, 64 processeurs encore plus et au dessus c'est surtout des prototypes donc je crois qu'on est loin de mettre 64000 coeurs dans un ordinateur bon marché, même d'ici 10 ans

    Les problèmes dont les solutions explosent (car les solutions étant au mieux exponentiel) ne sont pas près d'être résolu de manière efficace (avec la technologie actuelle (qui est grosso modo la même depuis 60 ans).. mais qui pourrait être différent avec des ordinateurs quantiques ou des choses comme ça)

  4. #144
    Membre à l'essai
    Profil pro
    Inscrit en
    Janvier 2008
    Messages
    13
    Détails du profil
    Informations personnelles :
    Localisation : Belgique

    Informations forums :
    Inscription : Janvier 2008
    Messages : 13
    Points : 15
    Points
    15
    Par défaut
    Citation Envoyé par millie Voir le message
    Les problèmes dont les solutions explosent (car les solutions étant au mieux exponentiel) ne sont pas près d'être résolu de manière efficace (avec la technologie actuelle (qui est grosso modo la même depuis 60 ans).. mais qui pourrait être différent avec des ordinateurs quantiques ou des choses comme ça)
    Je ne suis pas certain que la résolution / modélisation de l'intelligence humaine passe nécessairement par la capacité de résourdre des problèmes NP complets. Tout comme les ordinateurs (pour l'instant), le cerveau n'en n'est pas capable. Par contre ce que nous savons très bien faire, c'est reconnaître des formes, des situations (pattern) et nous prenons des décisions en conséquences. Un joueur de tennis ne calcul pas toutes les trajectoires possibles de la balle. A un moment il sentira qu'il doit avancer et préparer son coup droit pour relancer (peut-être) la balle. Or il n'a fait que construire un modèle mental de la situation et son cerveau a envoyé certaines commandes à ses muscles. Heureusement le cerveau se trompe souvent sinon, les matchs deviendraient vite fort ennuyeux ...

    Or actuellement, les ordinateurs sont tout a fait capable de reconnaître des formes (par exemple : réseaux de neurones) et de prendre des décisions suivant une approche probabiliste (réseaux baysiens). Cette approche ne nécessite pas l'usage de la force brute. Même si la puissance de calcul pour simuler un cerveau humain reste importante, elle n'est pas infinie.

    L'ordinateur le plus puissant du moment que j'évoquais dans mon post précédent (IBM Blue Gene/L) est justement dédicacé à la simulation d'un néocortex (Bleu Brain Project).

    Il ne faut pas oublier que l'évolution technologique n'est pas linéaire mais exponentielle. Durant les 10 premières années de recherche sur le génome humain, seul 2% avait été décodé. Les 98% restant l'ont été en ... 5 ans.

  5. #145
    Rédacteur

    Avatar de millie
    Profil pro
    Inscrit en
    Juin 2006
    Messages
    7 015
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2006
    Messages : 7 015
    Points : 9 818
    Points
    9 818
    Par défaut
    Citation Envoyé par singularitor Voir le message
    Par contre ce que nous savons très bien faire, c'est reconnaître des formes, des situations (pattern)
    Vu que tu parles de forme. Penses-tu que l'on puisse modéliser le monde dans lequel on vit ?

    et de prendre des décisions suivant une approche probabiliste
    Avec les ordinateurs de nos jours, c'est encore très difficile de simuler des lois de distributions de manière fiable (sans intervention extérieur, c'est même impossible).

    Et il est semble difficile de pouvoir faire un algorithme pouvant générer un réel entre 0 et 1 de manière aléatoire ^^ (le problème se situe également dans la notion de réel)


    Quelqu'un a parlé du théorème d'incomplétude de Godel (valable donc dans un système classique). J'ajouterai également qu'il existe énormément de problème dont on a prouvé qu'aucun algorithme ne pouvait le résoudre (sans pour l'instant prouver que la pensée humaine pouvait ou non ) (cela dit, il existe des algorithmes (par exemple avec syracuse) dont on ne sait pas encore s'il termine)

  6. #146
    Rédacteur/Modérateur

    Avatar de gorgonite
    Homme Profil pro
    Ingénieur d'études
    Inscrit en
    Décembre 2005
    Messages
    10 322
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 40
    Localisation : France

    Informations professionnelles :
    Activité : Ingénieur d'études
    Secteur : Transports

    Informations forums :
    Inscription : Décembre 2005
    Messages : 10 322
    Points : 18 681
    Points
    18 681
    Par défaut
    Citation Envoyé par singularitor Voir le message
    Ok, peut importe que ce soit 1, 2 ou 64.000 processeurs. Le tout est d'atteindre une vitesse de cacul suffisante et bon marché.
    tu oublies que cela ne sert à rien s'il y a trop d'interdépendances entre les calculs... les calculs fortement parallèles sont très utiles dans certains domaines, mais faut éviter de généraliser


    Citation Envoyé par millie Voir le message
    Quelqu'un a parlé du théorème d'incomplétude de Godel (valable donc dans un système classique). J'ajouterai également qu'il existe énormément de problème dont on a prouvé qu'aucun algorithme ne pouvait le résoudre (sans pour l'instant prouver que la pensée humaine pouvait ou non ) (cela dit, il existe des algorithmes (par exemple avec syracuse) dont on ne sait pas encore s'il termine)
    avant de modéliser la pensée humaine, faudra déjà la comprendre...

  7. #147
    Rédacteur

    Avatar de millie
    Profil pro
    Inscrit en
    Juin 2006
    Messages
    7 015
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2006
    Messages : 7 015
    Points : 9 818
    Points
    9 818
    Par défaut
    Citation Envoyé par gorgonite Voir le message
    avant de modéliser la pensée humaine, faudra déjà la comprendre...

    En fait, ce que je voulais dire (enfin, ce qui m'avait effleuré l'esprit).

    En prenant l'exemple de la terminaison d'algorithme, beaucoup savent qu'il n'existe pas d'algorithme qui démontre qu'un algorithme se termine à tous les coups.
    Est-ce que l'on peut démontrer qu'il existe des algorithmes pour lequel il n'existe pas de preuve de leurs terminaisons ? Si c'est pas le cas, ça pourrait être un résultat intéressant

  8. #148
    Inactif  
    Profil pro
    Inscrit en
    Juillet 2005
    Messages
    1 958
    Détails du profil
    Informations personnelles :
    Âge : 59
    Localisation : France

    Informations forums :
    Inscription : Juillet 2005
    Messages : 1 958
    Points : 2 467
    Points
    2 467
    Par défaut
    Citation Envoyé par millie Voir le message
    J'ajouterai également qu'il existe énormément de problème dont on a prouvé qu'aucun algorithme ne pouvait le résoudre (sans pour l'instant prouver que la pensée humaine pouvait ou non ) (cela dit, il existe des algorithmes (par exemple avec syracuse) dont on ne sait pas encore s'il termine)
    Enfin, attention, il est facile de trouver des questions qui ne peuvent se résoudre par algorithme («le mur est-il blanc ?»). C'est plus étonnant de constater qu'une question entièrement comprise (définit) dans un système formelle peut avoir une réponse qui n'est pas accessible par le système formelle en question. C'est ça plutôt le théorème de Gödel. Il faut toujours en parler avec des pincettes mais bon ce n'est pas le sujet.

    ---

    Personnellement, ne m'en veux pas singularitor mais je pense que ces chercheurs font plus de pubs que de prédictions intelligentes. Je fais parti de ces universitaires qui travaillent dans les labs dont tu parles. Et je ne crois pas que d'ici 50 ans nous auront des robots/ordinateurs qui seront vraiment à même de concurrencer notre intelligence. À moins qu'on ne réussisse à faire un saut technologique important. Et beaucoup de mes collègues sont de mon avis. Maintenant, je tiens à souligner que je n'ai aucun problème avec cette idée. Ça ne me stresserait pas de voir une machine acquérir une conscience d'elle-même par exemple. C'est juste que technologiquement cela semble improbable sur un court terme (100 ans) à moins d'une percée (qu'on ne peut prévoir). TU dis qu'il suffit d'avoir une vitesse suffisante et c'est là le problème : il suffit d'une vitesse suffisante pour sortir d'un trou noir; mais on ne l'aura jamais. Les processeurs arrivent à la limite physique des vitesses qu'ils peuvent fournir et nous ne sommes pas en mesure d'en faire fonctionner correctement un très grand nombre.

    Maintenant si une percée arrive (ordinateur quantique par exemple, mais cela pourrait être une percée en math) toute la perspective changera. C'est aussi le cas de la mathématisation de la biologie. Celle de la chimie est déjà en cours, celle de la bio n'est pas amorcée et n'est pas prête de l'être. Je pense que ce problème et celui de l'IA sont reliés.

    Finalement, ne te laisses pas impressionner par des prévisions de personnes savantes. Aussi bon soit-il, ils n'ont pas de science infuse. Ainsi Newell disait en 58 qu'il faudrait 10 ans pour battre les champions d'échecs. Il était loin du compte. Mais pire, en Marvin Minsky disait à la fin des années 60 qu'il faudrait une dizaine d'année pour résoudre les problèmes les plus importants qui mèneraient à l'IA. Ce ne sont pas des 2 de pique ces gens là. Je te donne les plus célèbres, mais l'optimisme était partagé. Les quelques chercheurs que tu cites devraient être plus prudent quand ils font leurs prédictions, mais c'est surtout dans des livres grands publics qu'ils s'y livrent. Leurs publications sont souvent plus posées.

  9. #149
    Membre régulier
    Profil pro
    Inscrit en
    Octobre 2003
    Messages
    83
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Octobre 2003
    Messages : 83
    Points : 101
    Points
    101
    Par défaut
    Citation Envoyé par Kujara Voir le message
    Sait tu seulement comment ils fonctionnent ?

    Moi oui, et crois moi, ça n'a rien d'interessant...
    En gros, les 2 fonctionennent en calcul brut. Aucune finesse, aucun algo interessant, presque jamais de coups réellement innovant, rien du tout.

    J'attends le jour où un ordinateur battra le champion du monde en Go.
    La ce sera interessant.

    ( pour ceux qui savent pas, le Go n'est pas brute-forcable, contrairement aux echecs).
    Pourquoi d'après toi ce ne serait pas intéressant?
    Choisir la meilleure tactique parmi des milliers et utiliser la plus efficace dans une situation donnée, tu trouves que c'est inintéressant ?
    Il faut être un peu plus ouvert quand même.

  10. #150
    Rédacteur

    Avatar de millie
    Profil pro
    Inscrit en
    Juin 2006
    Messages
    7 015
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Juin 2006
    Messages : 7 015
    Points : 9 818
    Points
    9 818
    Par défaut
    Citation Envoyé par Garulfo Voir le message
    Enfin, attention, il est facile de trouver des questions qui ne peuvent se résoudre par algorithme («le mur est-il blanc ?»). C'est plus étonnant de constater qu'une question entièrement comprise (définit) dans un système formelle peut avoir une réponse qui n'est pas accessible par le système formelle en question. C'est ça plutôt le théorème de Gödel. Il faut toujours en parler avec des pincettes mais bon ce n'est pas le sujet.

    En fait, quand j'ai dit ; "En parlant de Godel", je pensais : "Il existe des énoncés que l'on ne peut pas prouver" pour comparer "Il existe des problèmes n'ayant pas de solution algorithmique". J'avais juste fait ce rapprochement à ce moment

  11. #151
    Membre à l'essai
    Profil pro
    Inscrit en
    Janvier 2008
    Messages
    13
    Détails du profil
    Informations personnelles :
    Localisation : Belgique

    Informations forums :
    Inscription : Janvier 2008
    Messages : 13
    Points : 15
    Points
    15
    Par défaut
    Citation Envoyé par millie Voir le message
    Vu que tu parles de forme. Penses-tu que l'on puisse modéliser le monde dans lequel on vit ?
    Qu'est-ce que le monde dans lequel on vit ? C'est une vrai question metaphysique ça ... Donc, peux-t-on le modéliser ? En partie oui, mais pas complètement, pas exactement ! Je doute même que l'intelligence de niveau humain en soit jamais capable.

    Mais il ne s'agit pas d'un préalable ou d'une condition nécessaire à l'intelligence. Je me garderais bien de donner une définition de ce qu'est ou de ce que n'est pas l'intelligence, mais le fait est que nous possédons la faculté de nous faire des représentations mentales, justes ou fausses, du monde qui nous entoure. C'est (entre autre) cette capacité qui nous permet d'apréhender notre environnement, d'y vivre et (parfois) de s'y adapter. Il n'est donc pas nécessaire d'avoir un modèle exacte du monde. Un modèle utile ici et maintenant, suffit.

    Ceci dit, cette capacité n'est pas le propre de l'homme. Toutes les espèces qui ont "réussi" au cours de l'évolution, qu'elles soient dotées ou non d'un cerveau, sont capable de faire, à divers degrés, une certaine modélisation du monde. C'est plus une question de survie que d'intelligence.

  12. #152
    Membre à l'essai
    Profil pro
    Inscrit en
    Janvier 2008
    Messages
    13
    Détails du profil
    Informations personnelles :
    Localisation : Belgique

    Informations forums :
    Inscription : Janvier 2008
    Messages : 13
    Points : 15
    Points
    15
    Par défaut
    Citation Envoyé par millie Voir le message
    Il y a 7 ans, j'ai acheté un P4 à 1.5 ghz et c'était à peu près le meilleur de l'époque pour un prix de 1500€ (à l'époque en franc). Pourtant, les grand systèmes de l'époque (et encore plus les super calculateurs) battaient à plate couture les ordinateurs que l'on fera dans 3 ans pour 1000€... Je reste très sceptique par rapport à ce que tu dis (au niveau vitesse)
    Millie, tu as raison. je me suis avancé un peu vite. Mais je ne me suis pas trompé de beaucoup. J'explique :

    Il y a 10 ans, le meilleur super ordinateur avait une capacité de 1 teraflops/s. Aujourd'hui, le constructeur Terra Soft http://www.terrasoftsolutions.com vend un cluster de 8 PS3 (oui, oui des Play Station 3) d'une puissance identique (1 teraflops/s) pour 17.500 $ soit un peu plus de 10.000 EUR. Ok, ça fait une belle différence par rapport à 1.000 EUR.

    C'est cher, soit, mais abordable (en tous cas par rapport à un super ordinateur). Donc l'idée générale que j'évoquais, reste valable.

    La loi de Moore et peut-être à l'agonie mais elle est toujours vivante.

  13. #153
    Inactif  
    Profil pro
    Inscrit en
    Juillet 2005
    Messages
    1 958
    Détails du profil
    Informations personnelles :
    Âge : 59
    Localisation : France

    Informations forums :
    Inscription : Juillet 2005
    Messages : 1 958
    Points : 2 467
    Points
    2 467
    Par défaut
    Citation Envoyé par singularitor Voir le message
    [...]
    C'est cher, soit, mais abordable (en tous cas par rapport à un super ordinateur). Donc l'idée générale que j'évoquais, reste valable.

    La loi de Moore et peut-être à l'agonie mais elle est toujours vivante.
    Non pas vraiment. Comprends que la vitesse d'une impulsion dans ton ordinateur est limité à la vitesse de la lumière a priori (ça pourrait être faux dans une forme d'ordinateur quantique). Donc même si ton processeur envoie une information sur 10^-3 m il faudra parcourir ces 10-3 m (un processeur d'un millimètre ça serait sympa non). Il y a une limite physique. L'impulsion envoyé de ton clavier à ton unité central à une limite de vitesse aussi. La loi de Moore n'est déjà plus applicable ou presque. Les processeurs sont maintenant limités par les lois de la physique. En tout cas, on s'en approche.

    En qqs années ans, les processeurs n'ont quasiment pas augmenté de vitesse. Or tout le raisonnement que tu donnes est basé là-dessus. Ça ne marchera donc pas sans une percée technologique. Certes on procède en mettant plusieurs coeurs ensembles, mais les multiprocesseurs ça n'a absolument pas la valeur de la somme de leurs processeurs. On y retrouve le problème de la distance entre les deux coeurs. On a du mal actuellement à programmer efficacement en parallèle. Il faut revoir toute la manière de penser. Donc là aussi il faut une percée.

    Je ne veux pas te briser ton trip cependant on pourra peut être y arriver. Tout ce que j'amène c'est qu'en l'état de la science (et je ne parle pas que de l'informatique donc), nous n'y sommes pas du tout. Et je n'amène que le problème de la vitesse... mais il y en a d'autre.

  14. #154
    Inactif  
    Profil pro
    Inscrit en
    Juillet 2005
    Messages
    1 958
    Détails du profil
    Informations personnelles :
    Âge : 59
    Localisation : France

    Informations forums :
    Inscription : Juillet 2005
    Messages : 1 958
    Points : 2 467
    Points
    2 467
    Par défaut
    Citation Envoyé par Kujara Voir le message
    Sait tu seulement comment ils fonctionnent ?

    Moi oui, et crois moi, ça n'a rien d'interessant...
    En gros, les 2 fonctionennent en calcul brut. Aucune finesse, aucun algo interessant, presque jamais de coups réellement innovant, rien du tout.

    J'attends le jour où un ordinateur battra le champion du monde en Go.
    La ce sera interessant.

    ( pour ceux qui savent pas, le Go n'est pas brute-forcable, contrairement aux echecs).
    Depuis les 10 dernières années, il y a eu un progrès incroyable. Par contre, tu as tort de dire que ce n'est pas « brute-forcable » tu dois dire plutôt que nous n'avons pas actuellement (et probablement pour très longtemps, voir toujours) les moyens de passer par cette approche. Mais le nombre de configurations est fini. Il est donc théoriquement attaquable par la force brute. En tout cas, ce n'est effectivement pas l'approche utilisée.

    Récemment les meilleurs résultats sont obtenus par une approche statistique qui montre de très belle réussite. C'est amusant parce qu'un de mes camarades en maîtrise parlait de jouer au hasard pour obtenir un tesuji. C'est loin d'être ça cependant Grosso modo, l'idée est d'utiliser une heuristique d'optimisation de l'exploration pour choisir quelle branche prendre dans un algo alpha-beta puis une fois une séquence de coup pertinent choisi, compléter aléatoirement par des méthodes de Monte-Carlo, si je me rappelle bien.

    Une vulgarisation était paru dans un journal comme la Recherche je pense. Mais je devrais pouvoir te retrouver les références des articles si ça t'intéresse. Ils sont juste dans ma « pile » de papier à classer Ils y a des jeux bien plus difficile à modéliser sur ordinateur. En fait, c'est un challenge que ce sont donné des chercheurs : faire un jeu que l'ordinateur ne pourra jamais dominer. J'avais aussi mis la main sur un article résumant les approches et les problèmes en 2000.

    J'aime le Go c'est mon jeu favori, mais hélas, il sera probablement maîtrisé par un ordinateur dans un temps relativement court.

  15. #155
    Membre averti

    Profil pro
    Inscrit en
    Mai 2002
    Messages
    640
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mai 2002
    Messages : 640
    Points : 408
    Points
    408
    Par défaut
    Citation Envoyé par singularitor Voir le message
    Alain Cardon (tient un Européen ! ..) http://www.alaincardon.net/ qui vient de terminer le prototype d'une machine/logiciel capable de faits de concience et de but. Une machine qui se donne des buts et qui le sait (qui en est consciente). Alain Cardon était jusque l'année dernière Professeur des Universités, à l'Université du Havre et membre permanent du LIP6, Université Paris VI.
    J'ai lu son livre, Modéliser et concevoir une machine pensante. C'est une véritable "recette" pour créer une machine pensante en utilisant les systèmes multi-agents massifs auto-contrôlées, résultat de ses recherches et utilisant les connaissances les plus récentes en biologie, neurologie, psychologie, sciences cognitives mathématiques et bien sûr informatique. Le livre n'est pas facile à lire, car il requiert des notions dans ces disciplines (et le style d'Alain Cardon est assez particulier) mais absolument passionnant. Aucun aspect n'est oublié (émotions, sentiments, pensée, langage, apprentissage, intentionnalité...) et la plupart des objections classiques à l'IA générale sont balayées.

    Pour simplifier, son système repose sur un ensemble de composants adapatifs, chacun constitué d'un double système multi-agents en interaction : un premier système dont les agents correspondent à des symboles et dont la configuration évolue en permanence par des interactions avec l'environnement, et un second système chargé d'observer le premier et d'agir dessus, en analysant les "formes géométriques" que sa configuration fait apparaître... Il utilise les techniques classiques d'IA spécialisée (inférence, représentation des connaissances) mais en les intégrant dans un système plus vaste.

    Si Alain Cardon reçoit les financements nécessaires, nous aurons une véritable IA dans moins de 10 ans. Nul besoin d'ordinateur quantique...

    Pour une description du projet, voir ici

    Son projet me semble l'un des plus prometteurs à l'heure actuelle.

    Côté américain, il faut s'intéresser au projet Novamente, qui vise à créer une intelligence artificielle générale en utilisant une forme de réseau de concepts pour représenter les connaissances et des algorithmes d'inférence statistique et des algorithmes génériques pour l'apprentissage. Ce projet repose sur l'idée que l'intelligence est avant tout la capacité à reconnaître des formes, ce qui rejoint la définition de singularitor :

    Citation Envoyé par singularitor Voir le message
    Tout comme les ordinateurs (pour l'instant), le cerveau n'en n'est pas capable. Par contre ce que nous savons très bien faire, c'est reconnaître des formes, des situations (pattern) et nous prenons des décisions en conséquences.

  16. #156
    Inactif  
    Profil pro
    Inscrit en
    Juillet 2005
    Messages
    1 958
    Détails du profil
    Informations personnelles :
    Âge : 59
    Localisation : France

    Informations forums :
    Inscription : Juillet 2005
    Messages : 1 958
    Points : 2 467
    Points
    2 467
    Par défaut
    Attention aux termes: les émotions implantés dans les machines ça n'a RIEN à voir avec des émotions d'être vivant.

    Je pense que beaucoup d'entre vous seriez très déçu de voir à quoi ressemble les robots que nous fabriquons en laboratoire.

    Mais bon...

  17. #157
    Membre à l'essai
    Profil pro
    Inscrit en
    Janvier 2008
    Messages
    13
    Détails du profil
    Informations personnelles :
    Localisation : Belgique

    Informations forums :
    Inscription : Janvier 2008
    Messages : 13
    Points : 15
    Points
    15
    Par défaut
    Citation Envoyé par Garulfo Voir le message
    La loi de Moore n'est déjà plus applicable ou presque. Les processeurs sont maintenant limités par les lois de la physique. En tout cas, on s'en approche.
    Que dit la loi de Moore ? Tous les 24 mois, le nombre de transistors intégrés dans un processeur, double. Comme les électrons ont moins de chemin à parcourir, un circuit fonctionne 2 foix plus vite et comme il y a 2 x plus de transistors, la puissance de calcul est multipliée par 4. En 2003 les procédés permettaient de graver des transistors de 130 nm, 90 nm en 2004, 65nm fin 2005, 45 nm aujourd’hui. Bien qu’un records de 20 nm (quelques dizaines d’atomes) ait été démontré en laboratoire, on se heurte à 2 problèmes. Le premier est la limite physique, non pas imposée par la vitesse de la lumière comme l’indique Garulfo, mais qui est plutôt liée à la taille des transistors. Vers les 20 nm des effets quantiques (tunneling) font « sauter » les électrons d’une jonction à l’autre. Cette limite sera atteinte pour les industriels dans moins de 10 ans. Un autre problème que rencontre actuellement les industriels est la dissipation thermique lorsqu’on monte en fréquence. Ce qui explique les processeurs double cœurs dans les PC d’aujourd’hui avec des fréquences inférieures ou égales à celles de 2004/2005. Toutefois l’usage de matériaux autre que le dioxide de silicium (SiO2) sont des pistes prometteuses qui devraient permettre, pendant quelques années encore, de réduire la taille des transistors.

    Je voudrais revenir sur la loi de Moore. On associe habituellement cette loi, à la seule monté en puissance des microprocesseurs ou circuits intégrés. Mais le microprocesseur n’est pas le seul paradigme dans l’histoire du calcul automatique. Les tous premiers calculateurs étaient électro-mécaniques (recencement US de 1890), ensuite vinrent les relais (machines enigma des Nazi et la machine de Turing qui arriva à craquer le code), ensuite ce fût les lampes, après les transistors utilisés dans les calculateurs des premiers vol spaciaux . Ce n’est qu’au début des années 70 que le circuit intégré fit son apparition. Kurzweil note dans ses travaux The Law of Accelerating Returns (que je conseille de lire ici ) que l’évolution technologique en générale et celle de la puissance de calcul en particulier n’est pas linéaire mais exponentielle.
    • Entre 1910 et 1950 elle doublait tous les 3 ans.
    • Entre 1950 et 1970 elle doublait tous les 2 ans
    • Depuis 1970, elle double tous les ans.


    Chaque changement de paradigme, a tiré cette croissance exponentielle. Comme le fait remarquer très justement Garulfo, il est vrai que la technologie actuelle à base de silicium et de litogravure est en fin de vie. Quel sera le prochain paradigme ? Les labos regorgent de projets : l’ordinateur quantique (une firme D-Wave, promet une commercialisation en 2008 … est-ce bien sérieux ?), l’intégration nano et biotechnologies, l’optique, etc, etc …

    A en croire Kurzweil, et j’adhère à cette vision, trop souvent les gens tombent dans le piège de la pensée linéaire. L’évolution technologique est définitivement exponentielle.

    Je gage que dans 10 ans, nous aurons trouver le remplacant des processeurs actuels. Ce sera difficile et je suis conscient que j’adopte une posture résolument optimiste. Mais bon, on est dans un débat … alors débattons !

  18. #158
    Inactif  
    Profil pro
    Inscrit en
    Juillet 2005
    Messages
    1 958
    Détails du profil
    Informations personnelles :
    Âge : 59
    Localisation : France

    Informations forums :
    Inscription : Juillet 2005
    Messages : 1 958
    Points : 2 467
    Points
    2 467
    Par défaut
    Citation Envoyé par singularitor Voir le message
    [...] Le premier est la limite physique, non pas imposée par la vitesse de la lumière comme l’indique Garulfo, mais qui est plutôt liée à la taille des transistors.[...]
    Attention, je n'ai jamais dit que c'est la seule limite.
    J'ai dit qu'on arrive au limite imposée par les lois de la physique (ce que tu as d'ailleurs cité). Et j'ai dit que la vitesse de la lumière en était une, même si nous réussissions à réduire encore considérablement la taille des processeurs (avec mon histoire de processeur à 1mm). Il y a d'ailleurs des choses qu'on ne peut réduire encore bien longtemps (comme la taille entre chaque touche).

    Citation Envoyé par singularitor Voir le message
    [...]
    Je gage que dans 10 ans, nous aurons trouver le remplacant des processeurs actuels. Ce sera difficile et je suis conscient que j’adopte une posture résolument optimiste. Mais bon, on est dans un débat … alors débattons !
    Mais il n'y a pas de débat, que des conjectures. Je suis les travaux de mes amis physiciens (aussi bien par intérêt professionnel que personnel) et rien n'indique qu'on puisse réussir ça. Aucun d'entre eux ne peut prédire quoique ce soit et d'ailleurs ils ne le font pas en général. Plusieurs espèrent qu'ils pourront obtenir des résultats convaincants (sinon ils ne feraient pas de la recherche bien sûr).

    Encore une fois, les plus optimistes et les plus pessimistes ont en général semblé ridicule après coup. Aucune IA ne semble pour l'instant pouvoir réussir le test de Turing. Même de très très loin. On a des résultats mais dans des cadres extrêmement spécialisés. Les termes semblent prometteurs aux oreilles du public, mais la lecture de leurs réalisations (le code source dans le cas de l'informatique qui nous intéresse) est bien décevante vis-à-vis des attentes.

    Supposons que demain on obtienne des résultats menant à l'ordinateur quantique, nous ne sommes même pas sûr de pouvoir le programmer correctement. D'autre part, les gains ne nous permettront pas forcément d'atteindre la singularité dont tu parles. Il faudra peut-être une autre avancée qui viendra après. S'avancer sur ce qui pourra se passer après, c'est de la science-fiction puisque nous n'avons pas encore mis pied sur cette terre.

    Personne n'a jamais pu entrapercevoir les possibilités d'un technologie de rupture lorsqu'elle n'était pas encore là. Ni ses limitations. Sinon ça ne serait pas une technologie de rupture. Par contre, des fantasmes, il y en a eu.

    C'est juste pour ça que je te dirais d'être prudent dans tes prédictions. Maintenant d'un autre côté, les risques d'une mauvaises prédictions pour toi ne sont pas très grave

  19. #159
    Membre averti

    Profil pro
    Inscrit en
    Mai 2002
    Messages
    640
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mai 2002
    Messages : 640
    Points : 408
    Points
    408
    Par défaut
    Citation Envoyé par Garulfo Voir le message
    Attention aux termes: les émotions implantés dans les machines ça n'a RIEN à voir avec des émotions d'être vivant.
    A mon avis tu fais une différence qui n’a pas lieu d’être. Sauf à adhérer à des thèses « spiritualistes », la distinction entre l'activité mentale d'un système vivant (biochimique) et d'un système artificiel (informatique) n’a aucun fondement. Si on dispose de modèles physico-chimiques et psychologiques suffisamment précis, on peut donc reproduire les mécanismes de l’esprit humain. Si on prend la définition d’une émotion donnée par A. Cardon, une machine peut parfaitement être affectée par des émotions, qui sont l’équivalent des émotions humaines. Marvin Minsky a d'ailleurs déjà traité la question dans les années 1980.

  20. #160
    Expert éminent
    Avatar de GrandFather
    Inscrit en
    Mai 2004
    Messages
    4 587
    Détails du profil
    Informations personnelles :
    Âge : 54

    Informations forums :
    Inscription : Mai 2004
    Messages : 4 587
    Points : 7 103
    Points
    7 103
    Par défaut
    Citation Envoyé par Neuromancien2 Voir le message
    A mon avis tu fais une différence qui n’a pas lieu d’être. Sauf à adhérer à des thèses « spiritualistes », la distinction entre l'activité mentale d'un système vivant (biochimique) et d'un système artificiel (informatique) n’a aucun fondement. Si on dispose de modèles physico-chimiques et psychologiques suffisamment précis, on peut donc reproduire les mécanismes de l’esprit humain. Si on prend la définition d’une émotion donnée par A. Cardon, une machine peut parfaitement être affectée par des émotions, qui sont l’équivalent des émotions humaines. Marvin Minsky a d'ailleurs déjà traité la question dans les années 1980.
    Certes, mais il y a un gouffre entre les émotions (générées par la partie la plus ancienne et la plus rudimentaire de notre cerveau, le "cerveau archaïque") et les sentiments qu'elles induisent, ces derniers mobilisant notamment la mémoire à long terme. Même si ce mécanisme est de mieux en mieux cerné par les sciences cognitives, il reste totalement hors de portée d'une modélisation informatique.

Discussions similaires

  1. Créer une intelligence artificielle qui joue a un jeu sur internet..
    Par pinkfloyd234 dans le forum Langages de programmation
    Réponses: 0
    Dernier message: 10/01/2013, 01h41
  2. [sondage]Tpe sur l'intelligence artificielle
    Par tpe.ia.2011 dans le forum Interviews
    Réponses: 4
    Dernier message: 10/01/2012, 18h45
  3. Réponses: 2
    Dernier message: 28/02/2011, 20h45
  4. [Débat] L'intelligence artificielle et l'imprévu
    Par benwit dans le forum Intelligence artificielle
    Réponses: 35
    Dernier message: 20/07/2010, 21h28
  5. Réponses: 0
    Dernier message: 14/06/2010, 17h48

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo