Oui, mais tu y arrives parce que tu as une vision globale du problème, tu le comprends et tu as une certaine expérience de la vie qui te permet de te référer à des problèmes plus ou moins similaires pour t'aiguiller dans ta démarche.
Un ordinateur n'a pas cette vision globale, ne comprend pas et ne dispose pas d'un contexte suffisant pour s'aiguiller comme tu le fais.
Ca changera peut-être avec l'informatique quantique, si un jour on arrive vraiment à en faire quelque chose. Mais pour l'instant, le simple fait de faire un choix algorithmique entre diverses possibilités est un problème : pour faire ces choix, il faut déjà découvrir les possibilités. Et cette activité de découverte est finalement très consommatrice en temps, encore plus pour un appareil aussi "simple" qu'un ordinateur (simple en regard de ton cerveau et de ta vie hein).
Je me permet d'ajouter une petite réponse de théoricien:
L'isomorphisme de Curry Howard nous apprends que programmer une solution à une spécification, c'est la même chose que prouver un théorème. Or on sait aussi que toute logique suffisamment intéressante est indécidable (c'est à dire qu'il n'existe pas d'algorithme capable, étant donné un énoncé de théorème, de le prouver). C'est d'autant plus vrai que dès que la logique est encore un poil plus intéressante, il existe des théorème vrai non prouvable !
La conclusion plus claire de ça est : non, il n'existe pas d'algorithme qui, étant donné une spécification, produit un programme satisfaisant cette spécification, à moins que le langage de spécification soit trop pauvre.
Maintenant, l'autre question intéressante soulevée plus tôt dans la discussion est: un cerveau humain est-il finalement plus que turing complet (c'est à dire fondamentalement plus puissant qu'un ordinateur. Et par plus puissant, je ne veux pas dire plus parallèle ou plus rapide, mais capable de calculer des choses qu'un autre ordinateur ne peut pas calculer). La réponse a cette question est en gros "a-t-on un âme", et ne peut pas être résolue.
Si nous n'avons pas d'âme, il est donc théoriquement possible d'écrire un programme qui simule le processus créatif par lequel passe un programmeur lorsqu'il résout un problème, et donc de faire au moins aussi bien qu'un programmeur.
En pratique maintenant, c'est, dans l'état actuel des choses, complètement impossible. Le cerveau humain a des pouvoir d'associations ("ce problème me fait penser à un autre qui a l'air a priori totalement différent, mais en fait la solution du second s'adapte au premier") que nous sommes totalement incapable de simuler.
Pour résumer, je dirais que la réponse théorique est "ça dépend si l'Homme a une âme" et la réponse pratique est "non".
La question intéressante qu'on peut se poser est : la limite est où.
C'est pas parce qu'on ne peut pas tout faire qu'il faut abandonner l'idée de faire certaines choses.
Tu dévies fortement en passant de "plus puissant" à "âme"..
Il y a deux éléments fondamentaux que le cerveau a et que l'ordinateur n'a pas (et même pas en théorie, puisqu'on ne sait même pas le modéliser pour l'humain) :
- l'inconscient
- les associations d'idées (et/ou de couleur, d'odeur, etc..)
Donc avant de parler d'âme, sujet hautement connoté et indécidable, uniquement dans la partie "mécanique" (et donc théoriquement reproductible), il faudrait avoir résolu ça..
Ce sont en gros les 2 termes qui (puisque non expliqués) sont hors du domaine de "Turing" ou non...
[EDIT]
Exemple d'association d'idée produisant "un algorithme" et absolument non automatisable : la fameuse pomme de Newton..
Comment passerait-on de "je vois tomber une pomme" (instruction) à "les équations de la gravité" (solution/algorithme) ??
[/EDIT]
Sauf que si l'on s'éloigne du mythe pour prendre en compte la réalité historique, on a déjà plus d'infos pour en déduire la théorie sous-jacente
Parce que, aussi génial qu'il soit, Newton se creusait légèrement les méninges et échangeait avec d'autres savants pour trouver pourquoi la lune restait équidistante de la terre alors que le mouvement circulaire qu'elle fait est censé l'éloignée quand il a jeté les bases de la gravitation.
Pas du tout
Il faudrait peut être que je précise ce que j'entends par plus puissant: qui permet de calculer une classe plus grande de fonction.
Il existe deux grand modèle de calcul, qui tentent de décrire toute ce qui est "calculable". Ce sont le modèle de Turing, avec sa fameuse machine, et le modèle de Church, avec son lambda calcul. A première vu, les deux modèles sont profondément différents, mais en réalité, ils définissent exactement le même ensemble de fonction calculable (on peut écrire un simulateur de machine de Turing en lambda calcul et vis versa). Et personne n'a jamais trouvé de modèle de calcul plus puissant. Ce qui signifie en gros qu'un ordinateur moderne, ou même un super calculateur, ou un cluster de 2000 machines n'est pas plus "puissant" qu'une machine de Turing en terme de "qu'est ce que c'est capable de calculer". Ca le calcule juste beaucoup plus vite. Donc la question est bien de savoir si un cerveau humain est capable de "calculer" plus de choses qu'un ordinateur ou pas. Et c'est une question ouverte, qui a de bonne chance de se résumer à "l'homme a-t-il une âme". En effet, beaucoup de gens pensent que dans un monde régis par les lois de la relativité (à savoir densité d'énergie finie et communication à vitesse finie), on ne peut pas concevoir de système (quelqu'il soit) qui soit plus "puissant" qu'une machine de Turing. Donc si l'homme n'a pas d'âme, est purement matériel, il ne serait qu'une machine de Turing, et (modulo un bon générateur d'aléa et une pu***n de puissance de calcul) serait "simulable". En revanche, si l'homme a "plus" que ça, cela signifierai probablement qu'il n'est pas purement matériel (que ce "plus" est en dehors de l'espace régi par les lois de la relativité). Donc non, je ne pense pas dévier.
Je ne comprends pas du tout ce qui te permet d'affirmer qu'on ne peut pas implementer les "associations d'idées". Il y a énormément de programmes qui font des associations/clusterisation et qui marchent très très bien. Rien ne permet d'affirmer qu'il n'est pas possible d'écrire des programmes marchant "aussi bien" que le processus d'association d'idée d'un humain.
Pour "l'inconscient", je ne suis pas sûr de voir de quoi tu parles. Ne suffirait-il pas d'avoir deux unités de calculs avec des canaux de communication spécifiques (genre que dans un sens, avec une petite remonté dans l'autre sens) ? Qu'est ce qui prouve que c'est différent, plus "puissant" (toujours dans le même sens que tout à l'heure)
bien entendu
Il n'empêche que les associations d'idées et "images" et autres choses qui permettent de penser à une éventuelle solution sont très loins d'être même approchés par une quelconque explication...
Or c'est une source absolument non-négligeable de grandes idées, d'algorithmes, de théories, et autres...
Je prenais ça comme raccourci, mais Newton, comme tous les autres savants, avait tout un tas d'idées et de réflexions en parallèle.. Pourquoi cette pomme a provoqué un lien vers sa réflexion sur le problème que tu mentionnes en particulier, et pourquoi cela lui a donné les lignes suivant lesquelles baser son raisonnement....
Est-ce que quand il était petit il avait voulu attrpaer une pomme, s'était cassé la gueule, s'en est souvenu à ce moment-là, etc etc ??
Est-ce que la chute de la feuille à côté de la pomme ?
Est-ce que....
D'une part parce que les "associations" dont tu parles devraient être "inculquées"...
Tes programmes de clusterization (comme les programmes d'IA) font de la reconnaissance, de l'association, vers quelque chose de connu et limité.
La grande force des associations d'idées est la succession de sauts sur des choses que le saut précédent ne sait pas..
La première se fait par exemple sur un des personnes présentes dans la première idée. La seconde se fait par rapport à une situation n'ayant rien à voir mettant en scène cette personne, dans un souvenir lié à une émotion particulière (par exemple). La troisème se fait par rapport à cette émotion et ce que ça rappelle par rapport à une autre personne à laquelle on n'a pas pensé jusque là.. La quatrième se fait par rapport à l'odeur associée à la situation correspondant à cette émotion aec cette personne... ansi de suite...
Or nous accumulons depuis notre naissance , presque pour chaque seconde d enotre existence, situations, images, sons, odeurs, sensations...
Non seulement l'énormité de données, leurs liens étranges, et l'impossibilité de décrire un certain nombre de choses de manière "informatique" (comment décrire "le bien-être" ? le fait d'avoir "assez" mangé ? le fait d'être "troublé" ? le fait d'être "timide" devant quelqu'un et pas devant quelqu'un d'autre ?) font que il est déjàabsolument impossible de formaliser cet ensemble de choses qui participent à un souvenir, et donc à une association d'idées...
Lol...
L'inconscient fait que tu rêves, fait que quelquun en physchothérapie peut être paralysé (au vrai sens, physqiuement) par quelque chose qu'il ne veut pas voir ou ne sais même pas car enfoui à un certain moment, etc etc...
Ce n'est pas "2 unités de calculs" en prallèle qui résoudrait ça..
De ce côté-là ta vision est beaucoup trop simpliste...
Maintenant, sur le fond, mes reproches étaient par rapport à ton implication, à la soi-disant évidence sous laquelle tu présentes :
"Puissance supérieure à Turing" -> âme
Je ne suis pas théoricien de l'informatique, tu sembles plus calé que moi, mais "âme" est un mot philosophique, qui n'a pas sa place dans un débat technique..
Ce qui fait que ma réponse est celle du dessus : non, on ne pourra ajamais faire un ordi aussi puissant que le cevreau humain...
mais nous en avons déjà débattu à maintes reprises, en particulier :
débat sur l'intelligence artificielle
non, ma réponse est :
Il y a deux éléments fondamentaux que le cerveau a et que l'ordinateur n'a pas (et même pas en théorie, puisqu'on ne sait même pas le modéliser pour l'humain) :
l'inconscient
les associations d'idées (et/ou de couleur, d'odeur, etc..)
Donc avant de parler d'âme, sujet hautement connoté et indécidable, uniquement dans la partie "mécanique" (et donc théoriquement reproductible), il faudrait avoir résolu ça..
Ordinateur quantique > Turing.... Non ?
L'âme est quantique alors ? :p
Au delà de la boutade, ça me fait penser à certains problèmes indécidables qui le deviennent quand on modifie un paramètre...
Je pense à un, en particulier, où on sait que ça marche pour une taille des données égale à 1. On sait que c'est indécidable pour une taille supérieure à 10... Mais entre les deux, on sait rien du tout.
Je pense que ce que veux dire souviron est que dire que ce qui est plus puissant que turing est forcément du ressort de l'âme, c'est un peu comme dire que tout ce qui est plus puissant qu'une baliste est la bombe atomique... Y'a des choses qui existent entre les deux.
Pour le coup, avec Turing, on en sait rien vraiment... Enfin si... Y'a la physique quantique. Mais bref, peu importe. Je me suis fait comprendre.
Il n'existe à ma connaissance aucun algo quantique calculant quelque chose d'incalculable dans le modèle de Turing. Si on regarde http://en.wikipedia.org/wiki/Quantum...plexity_theory par exemple, on lit
Justement, il y a un certain nombres de raisons de penser que non, il n'y a rien au delà du modèle de TuringAlthough quantum computers may be faster than classical computers, those described above can't solve any problems that classical computers can't solve, given enough time and memory (however, those amounts might be practically infeasible). A Turing machine can simulate these quantum computers, so such a quantum computer could never solve an undecidable problem like the halting problem. The existence of "standard" quantum computers does not disprove the Church–Turing thesis.[46] It has been speculated that theories of quantum gravity, such as M-theory or loop quantum gravity, may allow even faster computers to be built. Currently, it's an open problem to even define computation in such theories due to the problem of time, i.e. there's no obvious way to describe what it means for an observer to submit input to a computer and later receive output.[47]
oui, enfin si j'en crois la définition c'est assez limité quand même :
La thèse Church-Turing postule que tout problème de calcul fondé sur une procédure algorithmique peut être résolu par une machine de Turing. Cette thèse n'est pas un énoncé mathématique, puisqu'elle ne suppose pas une définition précise des procédures algorithmiques.On est donc vraiment très très très loin de la capacité d'un cerveau humain.....Grâce à cet encodage des tables d'actions sous forme de chaînes de caractères, il devient en principe possible que les machines de Turing répondent à des questions à propos du comportement d'autres machines de Turing. Cependant, la plupart de ces questions sont indécidables, c'est-à-dire que la fonction en question ne peut pas être calculée par une machine de Turing.
- Il faut posséder d'abord un problème FONDE sur une procédure algorithmique
- Il faut pouvoir décider à propos d'une question
Déjà le 1 restreint considérablement le champ d'action (comment définir une "procédure algorithmique" pour dire "cette femme me plait et celle-là pas", ou bien "je préfère la viande blanche à la viande rouge" , ou bien "j'aime une odeur poivrée mais je déteste une odeur citronnée" ?).
Le 2 élimine ensuite la plupart de ce qui reste. Si tu regardes les pointeurs que j'ai donné plus haut sur le calcul d'enveloppe convexe, il y a au minimum 50 algorthmes distincts... Qu'est-ce qui ferait qu'une "machine" choisirait (ou créerait) plutôt telle solution que telle autre ???
Donc, même en ayant une "machine de Turing universelle", on serait très très très loin d'un cerveau humain, et absolument sans faire intervenir une quelcquonque âme...
@TropMDR: je vois ce que tu veux dire. De ce point de vue, c'est vrai aussi que le problème de l'arrêt, même un cerveau humain ne sait pas le résoudre. Et c'est vrai aussi que quand on dit que "on ne sait pas ce qui se passe entre 2 et 9" c'est qu'on ne le sait pas, en tant qu'être humain. Je me suis légèrement fourvoyé dans mon précédent message, effectivement.
@souviron: sur le coup des goûts et des couleurs, il y a quand même une notion de contexte qui entre en jeu, non ?
C'est le passif d'une personne, l'état de ses récepteurs sensoriels, du "câblage" de son cerveau qui fait qu'elle aime ou non telle ou telle chose. Enfin, il me semble.
Finalement, une grosse différence entre l'homme et la machine est que généralement la machine ne dispose pas de ce type de contexte. Du coup, elle ne dispose qu'une capacité de calcul, ce qui est quand même très insuffisant pour faire preuve d'imagination, d'intuition, etc.
J'ai l'impression que plusieurs questions se mélangent dans cette discution:
- Peut-on créer une solution qui reproduit le fonctionnement du cerveau humain?
- Peut-on créer une solution qui soit capable de résoudre au moins autant de problème que les humains?
- Peut-on créer une solution qui automatise entièrement l'écriture du code d'une application à partir de données fournies? (pour revenir au sujet initial)
Je crois qu'à la première question, la seule réponse est "on ne sait pas, en tout cas pas avec nos connaissances actuelles"; il faudra en premier lieu faire un bon prodigieux dans des domaines tels que les neuro-sciences ou la psychologie afin de comprendre comment nous fonctionnons.
En ce qui concerne la seconde question, à l'heure actuelle c'est encore impossible mais les possibilités de solutions sont sans doute plus étendues que pour la première à condition de prendre conscience que la méthode humaine n'est ni forcément la seule ni même la meilleur façon de procéder. Nous détacher de nos schémas traditionnels de pensées ouvre de nouvelles pistes à explorer (je pense par exemple à l'algo "ant colony" qui était déjà naturel aux fourmis avant qu'une bestiole se dise que se serait pas mal de se déplacer sur ses deux seules pattes arrières). Par ailleurs, tout comme un humain donné, aussi génial soit-il, n'est pas capable de résoudre l'ensemble des problèmes, il pourrait ne pas être obligatoire que la solution soit universelle. La route est encore longue...
Le dernier point est à mon sens possible tant qu'on ne cherche pas la solution qui fait tout, du jeu vidéo au contrôle de centrale nucléaire en passant par l'appli de gestion et les croissants du matin. Il restera cependant toujours le besoin d'intervention humaine dans le processus.
Partager