peut-être tu comprendras mieux ???? mais l'orthographe est la science des ânes, et ne pas dépasser ce stade !!!!
cet article n'est pas de moi mais j'y adhère. et monté au nue l'IA ou descendre l'IA n'apporte rien... simplement de dire que dans l'état actuel et son concept cela ne fait qu'un system évoluer mais pas Intelligent.
Article:
On ne présente plus le deep learning (ou apprentissage machine profond), méthode qui repose sur des réseaux de neurones artificiels. Le principe : ne pas devoir définir à l'avance une règle de déduction, mais laisser l'ordinateur la déterminer tout seul, à partir de nombreux exemples étiquetés "vrai" ou "faux" (ce qu'on appelle apprentissage supervisé). Une approche qui revient à créer une boîte noire, le système causal déterminé par l'algorithme étant trop complexe pour être appréhendé d'un seul tenant par l'esprit humain.
Difficile dans ces conditions d'expliquer pourquoi un système de ce type fonctionne, ou de façon plus critique, pourquoi il n'a pas fonctionné. Car les conséquences des décisions prises par un système intelligent peuvent être fatales, comme on l'a vu en mars 2018 avec l'accident mortel d'un véhicule Uber autonome. Cette "explicabilité" des algorithmes d'intelligence artificielle (IA) était au cœur de plusieurs interventions données le 12 juin 2018 au salon AI Paris, dédié aux professionnels du secteur. Mais certaines approches moins sophistiquées peuvent permettre de contourner le problème.
"Le deep learning n'est pas la meilleure solution pour toutes les tâches"
"Parfois, les attentes des professionnels envers le deep learning sont trop grandes", relate d'entrée Stephen Brobst, Chief Technolog Officer de Terra Data, société spécialisée dans le big data et l'analyse de données. "Ce n'est pas parce qu'on a un marteau que c'est le meilleur outil pour toutes les tâches ! "
"L'intérêt du deep learning est de pouvoir gérer un grand nombre de variables industrielles", poursuit le dirigeant américain. "Mais un algorithme de ce type ne sera bon que dans la mesure où il a appris sur des données non biaisées, disponibles en quantité suffisante. Ces biais risquent d'ailleurs de provoquer un rejet des consommateurs d'ici 2020, selon une étude du cabinet de conseil IDC. L'une des approches possibles est de mélanger plusieurs type d'intelligence artificielle : des solutions à large spectre, mais aussi des algorithmes d'aide à la décision, au champ d'action plus restreint."
Un système déterministe pour expliquer les décisions de l'IA
Pour incarner les limitations du deep learning, le véhicule autonome constitue un exemple idéal. Ses enjeux sont multiples : "La sécurité de fonctionnement, mais aussi la robustesse, qui implique une certaine redondance des circuits de décision. Ce sont des systèmes dont des vies dépendront", rappelle Vanessa Picron, directrice R&D de la division conduite autonome de Valéo. "S'il se produit un accident, il faut être capable d'expliquer les choix de la machine". Une question qui se pose particulièrement avec le deep learning, "puisqu'un système de ce type ne sait dire explicitement comment il fonctionne."
Mais comment certifier un véhicule autonome dans ces conditions ? "On parle aujourd'hui de validation, mais il n'existe pas encore d'homologation à proprement parler", poursuit la directrice R&D. "Pour ce faire, les véhicules sont validés après avoir avoir conduit des milliers d'heures en environnement virtuels, afin de reproduire les cas d'accidents compliqués et de s'assurer que les algorithmes savent le gérer." En situation réelle, "c'est la redondance matérielle mais aussi logicielle" qui sera essentielle. "Les capteurs du véhicule autonome - vidéo, radar et lidar- sont complémentaires : la caméra donne des informations avec une densité d'information importante, le radar estime bien la vitesse, tandis que le lidar est précis pour déterminer la distance des objets."
Reste à combiner ces différentes perceptions pour en tirer du sens. "Pour l'instant, le deep learning est surtout déployé avec un réseau neuronal par capteur", développe Vanessa Picron. "Mais la phase ultime, ce sera de pouvoir les intégrer de bout en bout. L'une des pistes consiste à doubler les systèmes de deep learning d'un algorithme déterministe plus classique, qui sera capable de trancher entre les différentes options possibles, et capable d'expliquer a posteriori ses choix", conclut-elle. À voir toutefois si de tels systèmes réussiront un jour à affronter la place de l'Étoile, à Paris...
et on retombe sur l'exemple du début avec une phase plus élaborer mais identique quand au résultat, je conteste pas la programmation ou tout autre chose mais plutôt d'appropriation du nom IA pour ce qui n'en est pas.
aujourd'hui IBM avec son proc Quantique qui permet 200 millions d'opération par seconde , malgré toutes ses recherches reconnaît avoir relayé cela dans l'analyse de big data et pas IA .
autre article scientifique qui devrais être lu .... et explique que l'IA n'est pas encore né mais on tourne autour..... ce n'est pas moi qui le dit là mais les scientifiques lire l'article . ne vous en déplaisent.
https://www.ouest-france.fr/reflexio...yptage-5239115
pour étayer l'article voir https://www.developpez.com/actu/243459/ je ne l'avait pas consulté.... et confirme totalement ce que je pense.
Partager