Je suis bien d'accord mais le FSD peut il être pertinent s'il ignore ce qu'il ne reconnait pas?
Je ne croit pas, si le vaisseau des Mondo-Shawan (les gros être métallique qui voyagent dans des chrysalides géantes dans le cinquième élément) atterrissait devant ma voiture je m'arrêterais ou j'essayerais d'éviter l'obstacle. Ca tombe sous le sens.
Pourtant le FSD semble ignorer tout obstacle physique qu'il ne reconnait pas, ce qui me semble effarant et très dangereux (cette fois pour le chauffeur mais potentiellement pour d'autres, je penses aux tallbikes, monocycles et autres véhicules atypiques.
Si quelqu'un qui n'a jamais vu d'éléphant en voit un dans un couloir, il va devenir plus prudent face à l'inconnu imposant. Le FSD, lui, l'ignore va s'en rapprocher rapidement. Ca donne peu de durée de vie dans la théorie Darwiniste.
si tu es novice, je t'invite a tester des algos de scikit learn, tu verras que parfois ca ne fonctionne pas, sans comprendre pourquoi.
par exemple le randomforest classifier
même avec un cas simple, si tu l'entraine bien avec un dataset propre il n'a pas un taux de réussite de 100%.
et c'est bien plus basique et "debeugable" qu'un énorme réseau neurone comme doit avoir le fsd.
un exemple ici
Accuracy: 0.885
88% des prédictions du modèle sont correctes.
Precision: 0.578
précision mesure le nombre de vrais positifs (57%)
Recall: 0.0873
c'est le nombre de vrais positifs par rapport au nombre total de cas positifs réels
8% ca veut dire que le modèle manque beaucoup de cas positifs. le modèle ne parvient à identifier correctement que 8.73% des cas.
cette exemple soulève un probleme: pour faire des prédictions justes (88%), ton modèle zap pas mal de cas positif (il en détecte que 8%)...
si tu veux détecter plus de cas positifs, ton modèle risque de perdre en Accuracy
Cette exemple montre toute la complexité et que l'ia c'est pas magique et ce le sera jamais.
Les hallucination de chatgpt sont inévitable par exemple, la seul solution de le réduire c'est de réduire ces options de réponses mais dans ce cas on va perdre en qualité du modèle.
Pour le FSD j'imagine un dilemme similaire, le train il a du bien l’identifier ou la identifier avec autre chose.
Les voitures autonomes au jours d'aujourd'hui je pense devrait etre utilisé uniquement sur autoroute (peut être faut t'il faire des certifications d'autoroute d'ailleurs, certifié "ia firendly") et dans les bouchons ou il suffit juste de suivre la voiture en face.
Une autoroute/national/bout de national certifié aurait des normes a respecter: panneaux a une certaine hauteur et à un certain angle pour éviter qu'ils ne soit pas vu par l'ia, comprendrais uniquement des voix d’acceleration/décelleration comme carrefour (donc feu/stop interdit), n'aurait aucun passage a niveau...etc.
la signalisation devrait peut être même être normalisé au niveau mondial (même couleurs, même forme des panneaux et même police d'écriture), quand je vais en allemagne c'est pas la même police d'écriture, les voitures des secours et polices ne sont pas pareil (couleur différente, bruit sonore différent...) ca n'aide pas l'entrainement des ia tous ca, en suisse les autoroute sont des panneaux vert et les autoroute en bleu...etc.
Ca je comprends bien, c'est notamment la raison pour laquelle je penses que Tesla a eu tort de n'utiliser que des caméras.
Et c'est là que je veux en venir, et ce que je vais dire est surement naïf mais tout système de conduite autonome devrait hiérarchiser ses informations :Les hallucination de chatgpt sont inévitable par exemple, la seul solution de le réduire c'est de réduire ces options de réponses mais dans ce cas on va perdre en qualité du modèle.
Pour le FSD j'imagine un dilemme similaire, le train il a du bien l’identifier ou la identifier avec autre chose.
1. Ce que j'observe est il un obstacle? Oui/Non (il faut différencier une voiture/train/vélo de la pluie/nuage bas/glitch visuel)
2. Si oui, Est ce que je vais ou risque d'entrer en collision avec ? Oui/Non (sa trajectoire croise t-elle la mienne? Sa trajectoire est elle suffisamment proche de la mienne?)
3. Si oui, est ce grave? Oui /Non (Il faut différencier une voiture/train/vélo d'une feuille/papier)
Dans aucune de ces questions j'ai besoin d'identifier si c'est un train ou un vaisseau Mondo-Shawan.
Et dans ces questions il y a une chose cool, plus les choses sont dangereuses (lourdes et rapides) plus leur trajectoire est prévisible. Un objet non identifié qui a une trajectoire chaotique est très probablement inoffensif et sans risque.
Après on peut commencer à identifier les voitures pour se méfier des Audi qui ont plus tendance à violer les priorités que les Kia.
Ce qui est d'office impossible parce que nous ne mesurons pas tous la vitesse de la même façon.la signalisation devrait peut être même être normalisé au niveau mondial (même couleurs, même forme des panneaux et même police d'écriture), quand je vais en allemagne c'est pas la même police d'écriture, les voitures des secours et polices ne sont pas pareil (couleur différente, bruit sonore différent...) ca n'aide pas l'entrainement des ia tous ca, en suisse les autoroute sont des panneaux vert et les autoroute en bleu...etc.
Ceci dit ma voiture reconnait très bien les panneaux de vitesse en France, Belgique et Allemagne alors qu'ils sont tous plus ou moins différents (en Belgique on précise souvent km après la valeur).
Et je penses que la lecture des panneaux n'est pas suffisante, par exemple quand on arrive en France il y a un panneau assez incompréhensible qui donne les règles de vitesse dans le pays, ce qui permet d'économiser les panneaux ensuite.
Il existe plusieurs tronçon en Belgique qui sont renseignés par mon GPS voiture, Google Maps et Waze comme limité à 90km/h alors qu'ils sont limités à 120km/h si on suit le code de la route donc je suppose qu'il existe une base qui renseigne les vitesses limites.
vu que tesla n'a pas de lidar non le fsd n'a peut etre pas vu que c'était un obstacle.
et meme avec le lidar, il faut comprendre que l'obstacle (le train) avance et la voiture aussi et calculer que oui il y'a collision si les 2 vecteurs continue d'avancer au même rythme dans 30 secondes...
Au nom du pèze, du fisc et du St Estephe
Au nom du fric, on baisse son froc...
Dans ce cas, que le train avance ou pas n'a aucune importance, puisqu'il peut-être considéré comme un obstacle fixe. Seul le fait que l'obstacle soit sur le chemin que la voiture emprunte est important. Et il est quand même incroyable que le FSD ne "voit" pas l'obstacle ! Qu'importe s'il le reconnait comme un train, ou le prend pour un mur, une maison ou un troupeau d'éléphants.
Au nom du pèze, du fisc et du St Estephe
Au nom du fric, on baisse son froc...
Aux USA le seul robot taxi qui arrive à s'en sortir, c'est Waymo, qui est en exploitation dans plusieurs villes aux USA, et Waymo utilise un Lidar, de même que les robots Taxi qui sont déjà utilisés en exploitation en Chine.
Le FSD "surpuissant" promis par Elon Musk et ça sans Lidar on voie bien que c'est du flan, trop risqué, pas assez fiable.
Yes, Elon. Radar is necessary for full self-driving (FSD)
Ne prenez pas la vie au sérieux, vous n'en sortirez pas vivant ...
C'est pour ça que je suis contre l'abandon de cette technologie ou d'une autre qui permet de percevoir les surfaces/volumes.
Pour un LIDAR il est facile d'identifier si l'objet bouge (dans quelle direction et à quelle vitesse) parce que l'effet Doppler entraine une variation de la fréquence du signal de retour.et meme avec le lidar, il faut comprendre que l'obstacle (le train) avance et la voiture aussi et calculer que oui il y'a collision si les 2 vecteurs continue d'avancer au même rythme dans 30 secondes...
Donc en 1s d'analyse on doit être capable d'évaluer si l'obstacle bouge, s'il bouge de façon chaotique ou non, et d'évaluer une surface à laquelle il va se trouver dans, 1s, 10s, 30s etc. (avec une incertitude qui augmente progressivement)
J'espère qu'une Tesla est capable d'évaluer sa trajectoire nominale dans les 2 prochaine minutes (elle a une route, un GPS pour l'aider).
Ce qui donne pas mal d'information sur la probabilité d'impact, sur la gravité de l'impact et sur quelques choix pour empêcher/minimiser cette probabilité et/ou gravité.
Je peux faire un paquet d'hypothèse pour identifier un obstacle sans LIDAR mais pourquoi le faire si un LIDAR le fera toujours mieux et plus vite que tout ce que je vais suggérer via une caméra.
Exemple : Une route ne s'interrompt que dans les cas suivants :
Je suis en haut d'une colline (elle ne s'interrompt pas, je ne vois juste pas la suite)
Je suis dans un virage (elle ne s'interrompt pas, la suite est hors du champs de la caméra)
Il y a un carrefour en T (elle croise une autre route, il y a des indications au sol ou un panneau)
Il y a un truc au milieu de la route (la perspective change soudainement, ou je ne suis dans aucun cas précédents), et par truc j'entends aussi un trou parce que je dois autant l'éviter qu'un camion couché ou qu'un train.
Tout ce que je dit est bien sur caricatural, ce n'est pas un hasard si peu y arrivent.
Mais, face à un enjeu majeure (ce qu'est le FSD pour Tesla), une preuve d'intelligence consiste à faciliter la collecte des données (avec un lidar/sonar par exemple) plus tot que se baser sur un système moins fiable (une caméra).
Une Tesla avec le Full Self Driving activé percute une voiture de police et vient allonger la liste des enquêtes sur les cas de collisions
Impliquant une Tesla avec la fonction de conduite autonome active
Full Self-Driving (FSD) s’entend conduite entièrement autonome. Full Self-Driving est aussi le nom donné par Tesla à son programme d’essais visant à atteindre la conduite entièrement autonome classée au niveau 5 sur l’échelle de classification de la SAE. L’appellation faisait déjà l’objet de controverses compte tenu des incidents dans lesquels les véhicules du constructeur se sont retrouvés impliqués depuis 2020 – période de lancement de la bêta du mode Full Self-Driving. Elle l’est de plus en plus avec la publication de récentes vidéos qui montrent des Teslas avec la fonction de conduite entièrement autonome entrain de créer des dégâts.
Un agent de la police de Fullerton enquêtait sur un accident mortel vers minuit près des avenues Orangethorpe et Courtney. L'officier gérait la circulation et des fusées de détresse avaient été placées sur la route. L'agent se tenait à l'extérieur de son véhicule de patrouille, dont les feux de détresse étaient allumés et a réussi à s'écarter avant que le conducteur d'une Tesla bleue ne percute sa voiture. Aucun policier n'a été blessé dans l'accident. Le conducteur de la Tesla affirme qu'il conduisait le véhicule en mode de conduite autonome tout en utilisant son téléphone portable, selon le rapport de police. Il est resté sur les lieux et a coopéré à l'enquête.
Un incident qui fait suite à un autre dans lequel une Tesla se trouve à deux doigts de se faire écraser par un train parce que la technologie de conduite autonome n’a pas détecté ce dernier.
C’est grâce à l’intervention du propriétaire que le pire ne s’est pas produit. Le conducteur déclare que sa Tesla n'a pas ralenti à l'approche du train et qu'il a freiné et pris la direction de la voiture manuellement, la faisant dévier de la route pour éviter le train.
« Je me suis dit qu'il était impossible qu'il ne voie pas le train. Il est impossible qu'il ne voie pas les feux clignotants. Oui, il y avait du brouillard, mais on pouvait quand même voir les lumières », précise-t-il.
L'accident s'est produit dans la matinée du 8 mai. M. Doty, évaluateur général certifié dans l'Ohio, conduisait à environ 100 km par heure, selon un rapport d'accident de Tesla. La limite de vitesse sur la route était de moins de 90 km par heure, selon Doty et un rapport de police associé à l'accident. Les conducteurs peuvent demander des rapports d'accident à Tesla, qui sont générés à partir des données que les voitures individuelles envoient aux serveurs de Tesla. La vidéo même a été enregistrée par le véhicule accidenté.
Tesla enchaîne les procès en raison des dégâts qui résultent des défaillances de son système dénommé Full Self-Driving
Tesla doit faire face à un procès intenté par des propriétaires de véhicules sur la question de la conduite autonome. Ils accusent Elon Musk de les avoir induits en erreur en leur faisant croire que leurs véhicules pourraient bientôt être dotés de capacités de conduite autonome.
Tesla Autopilot est un système avancé d'aide à la conduite développé par Tesla qui équivaut à une automatisation partielle du véhicule (automatisation de niveau 2, selon la définition de SAE International). Tesla fournit un "Autopilot de base" sur tous les véhicules, qui comprend le centrage sur la voie et le régulateur de vitesse en fonction du trafic.
Les propriétaires peuvent acheter une mise à niveau vers l'"Enhanced Autopilot" (EA), qui ajoute la navigation semi-autonome sur les routes à accès limité, le stationnement automatique et la possibilité d'appeler la voiture depuis un garage ou une place de parking. Full Self-Driving (FSD) est le nom donné par Tesla à son programme d'essais bêta visant à atteindre la conduite entièrement autonome (SAE Level 5). L'appellation est controversée, car les véhicules fonctionnant sous FSD restent au niveau 2 d'automatisation et ne sont donc pas "entièrement autonomes" et nécessitent une supervision active de la part du conducteur.
L'intention déclarée de l'entreprise est d'offrir une conduite entièrement autonome à l'avenir, tout en reconnaissant que des obstacles techniques et réglementaires doivent être surmontés pour atteindre cet objectif. Depuis 2013, le PDG de Tesla, Elon Musk, a fait à plusieurs reprises des prédictions inexactes selon lesquelles Tesla atteindrait l'autonomie de niveau 5 dans un délai d'un à trois ans.
Un juge américain a rejeté récemment la demande de Tesla de rejeter une plainte accusant le constructeur de voitures électriques d'Elon Musk d'avoir fait croire aux propriétaires que leurs véhicules pourraient bientôt être dotés de capacités de conduite autonome. Le recours collectif proposé à l'échelle nationale accuse Tesla et Musk d'avoir, depuis 2016, faussement annoncé qu'Autopilot et d'autres technologies de conduite autonome étaient fonctionnelles ou "juste au coin de la rue", incitant les conducteurs à payer plus cher pour leurs véhicules.
La juge du district de San Francisco, Rita Lin, a déclaré que les propriétaires pouvaient engager des poursuites pour négligence et fraude, dans la mesure où ils s'étaient fiés aux déclarations de Tesla concernant le matériel des véhicules et leur capacité à conduire d'une côte à l'autre des États-Unis. Sans se prononcer sur le fond, M. Lin a déclaré que "si Tesla voulait faire croire que son matériel était suffisant pour atteindre un niveau d'automatisation élevé ou complet, l'allégation est manifestement suffisamment fausse".
L'affaire a été menée par Thomas LoSavio, un avocat californien à la retraite qui a déclaré avoir payé une prime de 8 000 $ en 2017 pour les capacités de conduite autonome complète (FSD) sur une Tesla Model S, pensant que cela rendrait la conduite plus sûre si ses réflexes se détérioraient à mesure qu'il vieillissait. LoSavio a déclaré qu'il attendait toujours la technologie six ans plus tard, Tesla restant incapable "même de loin" de produire une voiture à conduite entièrement autonome.
L'action en justice vise à obtenir des dommages et intérêts non spécifiés pour les personnes qui, depuis 2016, ont acheté ou loué des véhicules Tesla dotés des fonctions Autopilot, Enhanced Autopilot et Full Self-Driving. Depuis de nombreuses années, Tesla fait l'objet d'enquêtes fédérales visant à déterminer si sa technologie de conduite autonome a pu contribuer à des accidents mortels.
Les procureurs fédéraux examinent séparément si Tesla a commis une fraude en matière de valeurs mobilières ou une fraude électronique en trompant les investisseurs sur les capacités de conduite autonome de ses véhicules, selon trois personnes familières avec l'affaire.
Tesla a déclaré que l'Autopilot permettait aux véhicules de se diriger, d'accélérer et de freiner dans leur voie, et que le Full Self-Driving permettait aux véhicules d'obéir aux feux de signalisation et de changer de voie. Mais l’entreprise a reconnu qu'aucune de ces technologies ne rendait les véhicules autonomes, ni ne dispensait les conducteurs de prêter attention à la route.
La Californie a même adopté une loi pour interdire à Tesla d’appeler le logiciel de ses véhicules Full Self Driving
Le PDG de Cruise est d’avis que « même dans des décennies, l’on n’obtiendra pas de véhicules véritablement autonomes à 100 %. » Pourtant, le constructeur américain Tesla associe de la terminologie comme Full Self-Driving ou Autopilot à la publicité de ses véhicules. C’est la raison pour laquelle la Californie a procédé à l’adoption d’une loi qui interdit à Tesla d’appeler le logiciel de ses véhicules Full Self-Driving. Motif : c’est de la publicité mensongère qui laisse croire que les véhicules Tesla sont totalement autonomes.
« Un fabricant ou un concessionnaire ne doit pas nommer une fonction d'automatisation partielle de conduite ou décrire une fonction d'automatisation partielle de conduite dans des documents publicitaires en utilisant un langage qui implique ou qui pourrait autrement amener une personne raisonnable à croire que la fonction permet au véhicule de fonctionner comme un véhicule autonome ou qu'elle possède une fonctionnalité qui n'est pas réellement incluse dans la fonction. Une violation de cette subdivision est considérée comme une publicité mensongère », lit-on.
Et vous ?
Partagez-vous les avis selon lesquels les véhicules Tesla ne sont pas prêts pour rouler sur des routes publiques ?
Quel commentaire faites-vous de la politique publicitaire autour des systèmes d'aide à la conduite de Tesla ?
Voir aussi :
L'Autopilot de Tesla fait l'objet d'une nouvelle enquête visant à vérifier l'efficacité d'une mise à jour publiée après le rappel de plus de 2 millions de véhicules. La NHTSA exprime des doutes
Un juge trouve des preuves que Tesla et Musk étaient au courant du défaut de l'Autopilot. Les déclarations de Musk auraient eu un effet significatif sur la croyance concernant les capacités du produit
Les avocats de Tesla affirment que les déclarations passées d'Elon Musk sur la sécurité de l'Autopilot pourraient n'être que des deepfakes, un juge a déclaré que cet argument est "troublant"
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
« On ne peut pas faire confiance au Full Self Driving de Tesla pour prendre les bonnes décisions », d’après un testeur
Qui ajoute que « le FSD n’est qu’une démo de technologie sans grande valeur pratique. »
Les détracteurs du Full Self-Driving (FSD) se multiplient et continuent à sensibiliser les consommateurs sur les dangers du logiciel de conduite autonome de Tesla. Jason Hughes, un pirate informatique bien connu dans le monde Tesla, a par le passé qualifié le FSD de Tesla d'"escroquerie flagrante à l'argent". Le pirate a accusé la société de prendre l'argent des propriétaires de Tesla en contrepartie d'un logiciel "défectueux" qui est en version bêta depuis sa sortie en 2016. Les clients doivent désormais débourser 15 000 dollars pour utiliser la version bêta FSD, mais le logiciel est loin d'avoir tenu les promesses faites par Tesla et le PDG Elon Musk. Le tableau prend un coup de neuf avec les affirmations d’un testeur selon lesquelles « le FSD c’est de la poudre de perlimpinpin. »
« Au vu de son fonctionnement actuel, le FSD est un système auquel on ne peut pas faire confiance pour prendre les bonnes décisions. Il commet les erreurs les plus élémentaires, et il en commet beaucoup.
Sans le FSD, le conducteur fait attention à la route et tout le reste est sous son contrôle. Avec le FSD, il doit toujours être attentif. Il y a une charge cognitive supplémentaire pour surveiller un système imprévisible sur lequel il n’a pas de contrôle direct.
Même avec le FSD activé, il faut rester hyper concentré. En sus, il faut débourser 99 dollars par mois ou 12 000 dollars en une seule fois pour ce privilège. Peut-être qu'un jour je pourrai me rendre au lac Tahoe en tapant l'adresse, m'asseoir, faire une sieste ou jouer sur mon téléphone. En attendant, ce n'est qu'une démonstration de technologie fantaisiste sans grande valeur pratique », déclare-t-il après avoir passé le logiciel après une série de tests.
Full Self-Driving (FSD) s’entend pourtant conduite entièrement autonome. Full Self-Driving est aussi le nom donné par Tesla à son programme d’essais visant à atteindre la conduite entièrement autonome classée au niveau 5 sur l’échelle de classification de la SAE. L’appellation faisait déjà l’objet de controverses compte tenu des incidents dans lesquels les véhicules du constructeur se sont retrouvés impliqués depuis 2020 – période de lancement de la bêta du mode Full Self-Driving. Elle fait de plus en plus l’objet de controverses au vu de la multiplication de rapports des détracteurs.
La Californie a même adopté une loi pour interdire à Tesla d’appeler le logiciel de ses véhicules Full Self Driving
Le PDG de Cruise est d’avis que « même dans des décennies, l’on n’obtiendra pas de véhicules véritablement autonomes à 100 %. » Pourtant, le constructeur américain Tesla associe de la terminologie comme Full Self-Driving ou Autopilot à la publicité de ses véhicules. C’est la raison pour laquelle la Californie a procédé à l’adoption d’une loi qui interdit à Tesla d’appeler le logiciel de ses véhicules Full Self-Driving. Motif : c’est de la publicité mensongère qui laisse croire que les véhicules Tesla sont totalement autonomes.
« Un fabricant ou un concessionnaire ne doit pas nommer une fonction d'automatisation partielle de conduite ou décrire une fonction d'automatisation partielle de conduite dans des documents publicitaires en utilisant un langage qui implique ou qui pourrait autrement amener une personne raisonnable à croire que la fonction permet au véhicule de fonctionner comme un véhicule autonome ou qu'elle possède une fonctionnalité qui n'est pas réellement incluse dans la fonction. Une violation de cette subdivision est considérée comme une publicité mensongère », lit-on.
Un ingénieur de Tesla a pourtant pris position par le passé arguant que le terme Full Self Driving n’implique pas l’autonomie et ne constitue pas une exagération des capacités du logiciel. Il faut néanmoins relever qu’au sein de l’industrie automobile, pratiquement tous les autres constructeurs automobiles ont réussi à trouver des noms plutôt génériques pour leurs implémentations de systèmes de conduite autonome : Ford BlueCruise, GM Super Cruise, BMW Driving Assistance Professional, Mercedes Drive Pilot, Toyota Safety Sense 3.0, Rivian Highway Assist, etc.Regular Reminder:
— Thomas Hansen (@tweetmyinbox) June 10, 2024
Tesla securities fraudster Elon Musk claimed Self Driving Teslas was ready in 2015
«3 months maybe, 6 months definitely» in 2017
Autopilot FSD v1-12.xx is still a deadly dangerous #Autonowashing scam, promised & sold by serial con man Elon Musk!$TSLA$TSLAQ https://t.co/Q2omDkDxod pic.twitter.com/GNll2AKMDH
Ces noms impliquent tous que la voiture intègre un système d’aide à la conduite, mais aucun d'entre eux n'implique de signification supplémentaire sur leurs capacités ou ne suggère quoi que ce soit sur leur autonomie. Tesla est pratiquement la seule entreprise à adopter des noms - Autopilot, et plus tard, Full Self-Driving.
Source : Résultats des tests
Et vous ?
Partagez-vous les avis selon lesquels la terminologie Full Sel Driving qu’utilise Tesla est trompeuse sur les capacités réelles du logiciel intégré à ses véhicules ?
Voir aussi :
Le mode Full Self-Driving de Tesla a tellement énervé cet homme qu'il se présente au Sénat, Dan O'Dowd est mécontent du fait que le logiciel bêta de Tesla soit testé sur la voie publique
Tesla se prépare à son premier procès impliquant un accident mortel lié à l'Autopilot, dans ce qui sera probablement un test majeur des affirmations d'Elon Musk au sujet de la technologie
Une Tesla en mode Autopilot a percuté des voitures de police malgré les gyrophares, selon un procès
Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités
Vous avez un bloqueur de publicités installé.
Le Club Developpez.com n'affiche que des publicités IT, discrètes et non intrusives.
Afin que nous puissions continuer à vous fournir gratuitement du contenu de qualité, merci de nous soutenir en désactivant votre bloqueur de publicités sur Developpez.com.
Partager