C'est ce que je me disais. la conscience et la croyance n'ont aucun rapport... je sais pas pourquoi souviron34 parle de croyances. Et puisque la conscience est la faculté de se dire qu'on "pense à quelque chose ici et maintenant", je pense plutot que c'est une forme d'intelligence "évoluée"...
Ah oui ? Penses tu qu'un bouddhiste perçoit de la même manière ce qu'un chrétien appelle la conscience, le moi ou bien d'autre notion utilisée dans cette discussion? Mais même sans passer dans la théologie, le terme est très mal défini (je parle de conscience). Que veux dire « penser à quelque chose ici et maintenant » ? C'est pas plus clair que « conscience » ?
--- Je propose de revenir au sujet : IA et informatique
Soyons clair : Turing a proposé un test pour tester une forme d'intelligence. Pour ceux et celles qui ne le savent pas, il propose simplement de déclarer intelligente une machine telle qu'un humain ne peut détecter qu'elle le soit. C'est arbitraire, mais au moins pour cela il propose un test. On a donc une manière fonctionnelle de tester cette « qualité. »
Actuellement aucune machine n'arrive à se faire passer plus de quelques minutes pour un humain. Les « testeurs » (qui ne savent pas qu'ils sont dans un test de Turing) arrivent vite à découvrir qu'une machine essaye de discuter avec eux. Dans le traitement du langage naturel, les avancées sont très lente en règle générale.
On a des avancées dans les jeux aussi, qui ont souvent servi de baromètre. On sait que des jeux vont probablement céder dans les années à venir comme le Go. Les techniques récentes utilisent des méthodes stochastiques qui ont un potentiel a priori important. Contrairement aux échecs, on s'est rendu compte que la force brute n'arriverait pas, à moins d'avoir une nouvelle génération d'ordinateur, à vaincre un humain. Mais, on a aussi créer des jeux qui sont fait pour résister aux ordinateurs. Il faut voir maintenant comment des ordinateurs pourront apprendre à battre les humains dans de tels jeux (où les règles changent selon les configurations, où il y a réinjection de pièces, où il n'y a pas de nombre fini de configuration etc.)
En robotique, on a l'air de progresser relativement bien. Cependant c'est très lent. Il y a un terreau fertile (l'exploration spatiale) et des sous. Mais reste que les robots sont loin loin loin derrière tout ce que le cinéma a pu mettre en avant. Même les plus idiots des robots de la science-fiction semble des génies incommensurables face à ce que nous avons. Nous sommes par exemple presque incapable des robots qui sont capables de parcourir une coupe de kilomètre tout seul sur terre. Dans l'espace, ils y arrivent mais en progressant extrêmement lentement, et en ayant des contacts réguliers avec les humains (surtout que les problèmes énergétiques sont nombreux donc impose des parcours particuliers). La mécanique des robots a bien avancée elle par contre. Mais c'est hors du cadre du forum (puisque c'est l'informatique !!!)
En tout cas, n'en déplaise aux rêveurs, les machines intelligents (dans le sens science-fiction) ne sont a priori pas prêt d'arrivées. À moins, et là ça change la donne, qu'une percée technologique (en math, en physique, en informatique, en je sais pas quoi) arrive et aide.
parce que "intelligence" c'est pas humain comme terme ???
Comme nous l'avons dit et comme Garulfo a très bien expliqué (merci ), ne tombons pas dans le débat métaphysique où rien n'avancera.
Le bilan qu'il a tiré de ce qui se FAIT est technique , et c'est LA SEULE BASE que l'on peut discuter ici.
Le reste n'est que discussions de comptoir pour la Taverne...
oui, et comme dit le principe d'Heisenberg, l'humain derange la mesure..
Donc on ne fait plus de mesures, c'est ca ???
Ce n'est pas ce que dit le principe d'incertitude d'Heisenberg. Il dit (en très gros) que la mesure est perturbatrice.
Je n'ai jamais dit cela. Je disais simplement que j'ai un (fort) doute sur la possibilité d'utiliser de manière fiable le test de Turing.Donc on ne fait plus de mesures, c'est ca ???
Je ne voulais certainement pas donner une définition de ce qu’est ou de ce que n’est pas la conscience. De Descartes à Spinoza (et quelques autres …) on a dit pas mal de choses sur le sujet. Sans pour autant en faire entièrment le tour.
Mais on ne peut pas simplement évacuer l’aspect d'une conscience l’orsqu’on parle d’ IA sous pretexte qu’il n’existe pas de définition formelle. Sinon à donner une définition de l’IA qui exclut d’emblée une certaine forme de conscience.
Au fait, c’est quoi la définition de l’IA ?
Nous avons des outils mathématiques qui permettent d'évaluer la portée de tels tests.
De plus, en regardant l'histoire de l'IA on se rend compte qu'à chaque fois qu'une machine fait un acte défini sur le moment comme intelligent, on redéfini cet acte comme non-intelligent puisqu'une machine le fait. Le seul moyen de s'en sortir est donc le test de Turing où le fait de provoquer l'illusion de l'intelligence: si un nombre représentatif d'humains on l'impression d'être en compagnie d'un autre être intelligent, alors nous appellerons cet autre être intelligent.
C'est une définition opérationnelle. Ce n'est certainement pas une définition objective. Mais reste que c'est une bonne mesure. Ce n'est nullement important que l'humain ne soit pas fiable. Si 99% des gens qui discutent avec ton programme on l'impression que c'est un humain « normal », et donc un être « intelligent », n'est ce pas suffisant pour reconnaître que le programme a gagné et qu'il peut être considéré comme l'égal d'un humain dans ce domaine ?
Il n'y en a pas, car il en faudrait une sur l'intelligence. C'est pour cela qu'il faut une mesure et c'est là qu'intervient le test de Turing. J'avais organisé un colloque multi disciplinaire sur ce qu'est l'intelligence et dans le but de montrer ce que pourrait être l'intelligence artificiel. C'était passionnant et on voyait à quel point essayer de définir l'intelligence comme une entrée dans un dictionnaire était absurde.
Il faut une mesure subjective qui par le nombre prend une allure objective car nous savons tous qu'un humain peut faire preuve d'intelligence et qu'une pierre non, sans pour autant être capable de le définir.
Mais encore une fois nous sommes en dehors du sujet : l'IA en informatique.
Faire des prédictions est digne des meilleurs sites d'horoscopes. Mais ça ne fait pas avancer le schmilblick. Attention, je ne dis pas du tout que cette discussion n'est pas intéressante en soi. TOut ce que tu as apporté est intéressant, mais pas dans la perspective du forum. Ce sont des questions qui m'intéressent. Et je le répète, je crois qu'une machine pourra un jour être artificielle et nous sembler complètement intelligente. À ce moment, il me semble qu'on pourra aussi dire qu'elle sera douée de conscience. Mais on tombe dans des considérations métaphysiques et philosophiques, qui me passionnent certes, mais qui sont en dehors d'une discussion sur l'informatique.
Les participants au Grand Challenge semblent avoir prouvé que c'est possible
En 2005, 5 véhicules automones ont réussi à parcourir + de 200 km dans le désert en +/- 6h.
En 2007, le but du jeux était de lancer ces véhicules autonomes dans la circulation. (ex : papier tech de l'équipe de Stanford)
Justement cette épreuve, que je suis chaque année, prouve qu'il est extrêmement difficile de réussir ça. C'est ce que j'entends par « nous sommes presque incapable. » 5 sur 23 on réussit en 2005. Seul 4 l'ont fait en moins de 10 heures. En 2007, il n'y a toujours que 4 véhicules qui ont réussi à satisfaire à l'épreuve dans le temps imparti (6 en tout).
Te rends tu compte qu'en deux ans, on n'a pas vraiment progressé ? Les résultats de 2004 étaient intéressants puisqu'aucun n'avait réussi à terminer. Un buisson avait bloqué un des favoris. C'est une épreuve extrêmement intéressante, mais pour l'instant, il y a une dose de chance non négligeable.
http://www.msnbc.msn.com/id/4517001/
Regarde la réaction lors de l'édition 2004: même en ayant « échoué » beaucoup considère qu'on avance. Cependant ce genre d'initiative est, en effet, loin d'être inutile. Mais chez les spécialistes ont se rend justement compte de la difficulté à faire une tâche aussi bête que d'avancer dans le désert d'un point A à un point B. Nous sommes très loin des capacités d'un animal « inférieur ». Alors imagines comparé à l'être humain.
Lors de colloque, je rencontre souvent des gens de la NASA et nous discutons souvent des problèmes liés à des robots isolés. La science est très loin de réussir à déplacer un robot comme R2D2 ou celui de Short Circuit. C'est pour ça que je tempère ton enthousiasme, tout en étant très heureux de voir des gens l'avoir. Parce qu'on ne peut pas espérer voir des progrès si on est trop pessimiste
Oserais-je te demander ce que tu fais dans la vie ?
Étudiant en info ?
Est-ce que quelqu'un est au courant des gros projets/travaux en cours sur l'IA ?
Hé bien je pense que niveau robotique on en entend assez parler.
Mais je vois beaucoup d'équipes de recherches sur les jeux, le traitement du langage, par exemple. Mais je ne sais pas vraiment quels grosses trouvailles font ces équipes (si elles en font).
D'ailleurs, personne n'a encore réussi à créer une IA forte au Go ?
le WE de l'ascension... comme tous les ans
mais c'est la coupe de France robotique, et ce n'est pas réservé aux écoles.
disons qu'il y a souvent moyen de s'amuser, mais que les règles ne sont pas toujours faites pour qu'on puisse prédire comment l'arbitre va l'interpréter... enfin c'est mon impression
Oui. Mais bon encore ce domaine on en parle même au JT, par exemple.
Mais personne ne cause de RdN, Réseaux Bayésiens & autres
Donc à part la robotique, y'a-t-il de grosses trouvailles ?
Enfin, histoire de savoir si ça évolue à fond ou bien tranquillement
Vous avez un bloqueur de publicités installé.
Le Club Developpez.com n'affiche que des publicités IT, discrètes et non intrusives.
Afin que nous puissions continuer à vous fournir gratuitement du contenu de qualité, merci de nous soutenir en désactivant votre bloqueur de publicités sur Developpez.com.
Partager