IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #421
    Expert confirmé

    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 484
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 484
    Points : 5 820
    Points
    5 820
    Par défaut
    Citation Envoyé par totozor Voir le message
    Je suis d'accord mais on parle d'un train, donc un ensemble de pixels qui prennent 1/3 du capteur et qui se déplacent tous dans la même direction et à la même vitesse ce qui devrait au moins suggérer qu'il y a quelque chose devant.
    Quand tout l'écran bouge c'est soit que tu bouges très fort soit qu'il y a un gros truc devant, dans les deux cas, tu dois déclencher les mesures d'urgences (Mais lesquelles? C'est une autre question)
    un simple petit autocollant sur un stop peut fausser les algos de reconnaissance d'image, le fsd serait bien incapable de voir un elephant dans un couloirs si cette elephant n'est pas similaire a ceux de son dataset

  2. #422
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 189
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 189
    Points : 3 634
    Points
    3 634
    Par défaut
    Citation Envoyé par calvaire Voir le message
    un simple petit autocollant sur un stop peut fausser les algos de reconnaissance d'image, le fsd serait bien incapable de voir un elephant dans un couloirs si cette elephant n'est pas similaire a ceux de son dataset
    Je suis bien d'accord mais le FSD peut il être pertinent s'il ignore ce qu'il ne reconnait pas?
    Je ne croit pas, si le vaisseau des Mondo-Shawan (les gros être métallique qui voyagent dans des chrysalides géantes dans le cinquième élément) atterrissait devant ma voiture je m'arrêterais ou j'essayerais d'éviter l'obstacle. Ca tombe sous le sens.
    Pourtant le FSD semble ignorer tout obstacle physique qu'il ne reconnait pas, ce qui me semble effarant et très dangereux (cette fois pour le chauffeur mais potentiellement pour d'autres, je penses aux tallbikes, monocycles et autres véhicules atypiques.
    Si quelqu'un qui n'a jamais vu d'éléphant en voit un dans un couloir, il va devenir plus prudent face à l'inconnu imposant. Le FSD, lui, l'ignore va s'en rapprocher rapidement. Ca donne peu de durée de vie dans la théorie Darwiniste.

  3. #423
    Expert confirmé

    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 484
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 484
    Points : 5 820
    Points
    5 820
    Par défaut
    Citation Envoyé par totozor Voir le message
    Je suis bien d'accord mais le FSD peut il être pertinent s'il ignore ce qu'il ne reconnait pas?
    Je ne croit pas, si le vaisseau des Mondo-Shawan (les gros être métallique qui voyagent dans des chrysalides géantes dans le cinquième élément) atterrissait devant ma voiture je m'arrêterais ou j'essayerais d'éviter l'obstacle. Ca tombe sous le sens.
    Pourtant le FSD semble ignorer tout obstacle physique qu'il ne reconnait pas, ce qui me semble effarant et très dangereux (cette fois pour le chauffeur mais potentiellement pour d'autres, je penses aux tallbikes, monocycles et autres véhicules atypiques.
    Si quelqu'un qui n'a jamais vu d'éléphant en voit un dans un couloir, il va devenir plus prudent face à l'inconnu imposant. Le FSD, lui, l'ignore va s'en rapprocher rapidement. Ca donne peu de durée de vie dans la théorie Darwiniste.
    si tu es novice, je t'invite a tester des algos de scikit learn, tu verras que parfois ca ne fonctionne pas, sans comprendre pourquoi.
    par exemple le randomforest classifier

    même avec un cas simple, si tu l'entraine bien avec un dataset propre il n'a pas un taux de réussite de 100%.
    et c'est bien plus basique et "debeugable" qu'un énorme réseau neurone comme doit avoir le fsd.

    un exemple ici

    Accuracy: 0.885
    88% des prédictions du modèle sont correctes.

    Precision: 0.578
    précision mesure le nombre de vrais positifs (57%)

    Recall: 0.0873
    c'est le nombre de vrais positifs par rapport au nombre total de cas positifs réels
    8% ca veut dire que le modèle manque beaucoup de cas positifs. le modèle ne parvient à identifier correctement que 8.73% des cas.

    cette exemple soulève un probleme: pour faire des prédictions justes (88%), ton modèle zap pas mal de cas positif (il en détecte que 8%)...
    si tu veux détecter plus de cas positifs, ton modèle risque de perdre en Accuracy


    Cette exemple montre toute la complexité et que l'ia c'est pas magique et ce le sera jamais.
    Les hallucination de chatgpt sont inévitable par exemple, la seul solution de le réduire c'est de réduire ces options de réponses mais dans ce cas on va perdre en qualité du modèle.
    Pour le FSD j'imagine un dilemme similaire, le train il a du bien l’identifier ou la identifier avec autre chose.


    Les voitures autonomes au jours d'aujourd'hui je pense devrait etre utilisé uniquement sur autoroute (peut être faut t'il faire des certifications d'autoroute d'ailleurs, certifié "ia firendly") et dans les bouchons ou il suffit juste de suivre la voiture en face.
    Une autoroute/national/bout de national certifié aurait des normes a respecter: panneaux a une certaine hauteur et à un certain angle pour éviter qu'ils ne soit pas vu par l'ia, comprendrais uniquement des voix d’acceleration/décelleration comme carrefour (donc feu/stop interdit), n'aurait aucun passage a niveau...etc.

    la signalisation devrait peut être même être normalisé au niveau mondial (même couleurs, même forme des panneaux et même police d'écriture), quand je vais en allemagne c'est pas la même police d'écriture, les voitures des secours et polices ne sont pas pareil (couleur différente, bruit sonore différent...) ca n'aide pas l'entrainement des ia tous ca, en suisse les autoroute sont des panneaux vert et les autoroute en bleu...etc.

  4. #424
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 189
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 189
    Points : 3 634
    Points
    3 634
    Par défaut
    Citation Envoyé par calvaire Voir le message
    Cette exemple montre toute la complexité et que l'ia c'est pas magique et ce le sera jamais.
    Ca je comprends bien, c'est notamment la raison pour laquelle je penses que Tesla a eu tort de n'utiliser que des caméras.
    Les hallucination de chatgpt sont inévitable par exemple, la seul solution de le réduire c'est de réduire ces options de réponses mais dans ce cas on va perdre en qualité du modèle.
    Pour le FSD j'imagine un dilemme similaire, le train il a du bien l’identifier ou la identifier avec autre chose.
    Et c'est là que je veux en venir, et ce que je vais dire est surement naïf mais tout système de conduite autonome devrait hiérarchiser ses informations :
    1. Ce que j'observe est il un obstacle? Oui/Non (il faut différencier une voiture/train/vélo de la pluie/nuage bas/glitch visuel)
    2. Si oui, Est ce que je vais ou risque d'entrer en collision avec ? Oui/Non (sa trajectoire croise t-elle la mienne? Sa trajectoire est elle suffisamment proche de la mienne?)
    3. Si oui, est ce grave? Oui /Non (Il faut différencier une voiture/train/vélo d'une feuille/papier)
    Dans aucune de ces questions j'ai besoin d'identifier si c'est un train ou un vaisseau Mondo-Shawan.
    Et dans ces questions il y a une chose cool, plus les choses sont dangereuses (lourdes et rapides) plus leur trajectoire est prévisible. Un objet non identifié qui a une trajectoire chaotique est très probablement inoffensif et sans risque.
    Après on peut commencer à identifier les voitures pour se méfier des Audi qui ont plus tendance à violer les priorités que les Kia.
    la signalisation devrait peut être même être normalisé au niveau mondial (même couleurs, même forme des panneaux et même police d'écriture), quand je vais en allemagne c'est pas la même police d'écriture, les voitures des secours et polices ne sont pas pareil (couleur différente, bruit sonore différent...) ca n'aide pas l'entrainement des ia tous ca, en suisse les autoroute sont des panneaux vert et les autoroute en bleu...etc.
    Ce qui est d'office impossible parce que nous ne mesurons pas tous la vitesse de la même façon.
    Ceci dit ma voiture reconnait très bien les panneaux de vitesse en France, Belgique et Allemagne alors qu'ils sont tous plus ou moins différents (en Belgique on précise souvent km après la valeur).
    Et je penses que la lecture des panneaux n'est pas suffisante, par exemple quand on arrive en France il y a un panneau assez incompréhensible qui donne les règles de vitesse dans le pays, ce qui permet d'économiser les panneaux ensuite.
    Il existe plusieurs tronçon en Belgique qui sont renseignés par mon GPS voiture, Google Maps et Waze comme limité à 90km/h alors qu'ils sont limités à 120km/h si on suit le code de la route donc je suppose qu'il existe une base qui renseigne les vitesses limites.

  5. #425
    Expert confirmé

    Homme Profil pro
    .
    Inscrit en
    Octobre 2019
    Messages
    1 484
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 42
    Localisation : France, Aube (Champagne Ardenne)

    Informations professionnelles :
    Activité : .
    Secteur : Conseil

    Informations forums :
    Inscription : Octobre 2019
    Messages : 1 484
    Points : 5 820
    Points
    5 820
    Par défaut
    Citation Envoyé par totozor Voir le message
    Ca je comprends bien, c'est notamment la raison pour laquelle je penses que Tesla a eu tort de n'utiliser que des caméras.
    Et c'est là que je veux en venir, et ce que je vais dire est surement naïf mais tout système de conduite autonome devrait hiérarchiser ses informations :
    1. Ce que j'observe est il un obstacle? Oui/Non (il faut différencier une voiture/train/vélo de la pluie/nuage bas/glitch visuel)
    2. Si oui, Est ce que je vais ou risque d'entrer en collision avec ? Oui/Non (sa trajectoire croise t-elle la mienne? Sa trajectoire est elle suffisamment proche de la mienne?)
    3. Si oui, est ce grave? Oui /Non (Il faut différencier une voiture/train/vélo d'une feuille/papier)
    Dans aucune de ces questions j'ai besoin d'identifier si c'est un train ou un vaisseau Mondo-Shawan.
    Et dans ces questions il y a une chose cool, plus les choses sont dangereuses (lourdes et rapides) plus leur trajectoire est prévisible. Un objet non identifié qui a une trajectoire chaotique est très probablement inoffensif et sans risque.
    Après on peut commencer à identifier les voitures pour se méfier des Audi qui ont plus tendance à violer les priorités que les Kia.
    Ce qui est d'office impossible parce que nous ne mesurons pas tous la vitesse de la même façon.
    Ceci dit ma voiture reconnait très bien les panneaux de vitesse en France, Belgique et Allemagne alors qu'ils sont tous plus ou moins différents (en Belgique on précise souvent km après la valeur).
    Et je penses que la lecture des panneaux n'est pas suffisante, par exemple quand on arrive en France il y a un panneau assez incompréhensible qui donne les règles de vitesse dans le pays, ce qui permet d'économiser les panneaux ensuite.
    Il existe plusieurs tronçon en Belgique qui sont renseignés par mon GPS voiture, Google Maps et Waze comme limité à 90km/h alors qu'ils sont limités à 120km/h si on suit le code de la route donc je suppose qu'il existe une base qui renseigne les vitesses limites.
    vu que tesla n'a pas de lidar non le fsd n'a peut etre pas vu que c'était un obstacle.

    et meme avec le lidar, il faut comprendre que l'obstacle (le train) avance et la voiture aussi et calculer que oui il y'a collision si les 2 vecteurs continue d'avancer au même rythme dans 30 secondes...

  6. #426
    Membre extrêmement actif Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 415
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 60
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 415
    Points : 9 908
    Points
    9 908
    Par défaut
    Citation Envoyé par totozor Voir le message
    Après on peut commencer à identifier les voitures pour se méfier des Audi qui ont plus tendance à violer les priorités que les Kia.


    J'aurais rajouter BMW et Mercedes, mais Audi, c'est vrai que les proprio de grosses bagnoles trop chères, ont tendance à se prendre pour les rois de la route. (avec les taxis et les chauffeurs routiers, mais, eux on ne dit rien, ils sont trop imposants pour les contredire )
    Au nom du pèze, du fisc et du St Estephe
    Au nom du fric, on baisse son froc...

  7. #427
    Membre extrêmement actif Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 415
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 60
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 415
    Points : 9 908
    Points
    9 908
    Par défaut
    Citation Envoyé par calvaire Voir le message
    et meme avec le lidar, il faut comprendre que l'obstacle (le train) avance et la voiture aussi et calculer que oui il y'a collision si les 2 vecteurs continue d'avancer au même rythme dans 30 secondes...
    Dans ce cas, que le train avance ou pas n'a aucune importance, puisqu'il peut-être considéré comme un obstacle fixe. Seul le fait que l'obstacle soit sur le chemin que la voiture emprunte est important. Et il est quand même incroyable que le FSD ne "voit" pas l'obstacle ! Qu'importe s'il le reconnait comme un train, ou le prend pour un mur, une maison ou un troupeau d'éléphants.
    Au nom du pèze, du fisc et du St Estephe
    Au nom du fric, on baisse son froc...

  8. #428
    Expert éminent sénior

    Homme Profil pro
    Directeur des systèmes d'information
    Inscrit en
    Avril 2002
    Messages
    2 810
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 64
    Localisation : Luxembourg

    Informations professionnelles :
    Activité : Directeur des systèmes d'information
    Secteur : Finance

    Informations forums :
    Inscription : Avril 2002
    Messages : 2 810
    Points : 19 036
    Points
    19 036
    Par défaut
    Aux USA le seul robot taxi qui arrive à s'en sortir, c'est Waymo, qui est en exploitation dans plusieurs villes aux USA, et Waymo utilise un Lidar, de même que les robots Taxi qui sont déjà utilisés en exploitation en Chine.

    Le FSD "surpuissant" promis par Elon Musk et ça sans Lidar on voie bien que c'est du flan, trop risqué, pas assez fiable.

    Yes, Elon. Radar is necessary for full self-driving (FSD)
    Ne prenez pas la vie au sérieux, vous n'en sortirez pas vivant ...

  9. #429
    Membre expert
    Homme Profil pro
    ingénieur qualité
    Inscrit en
    Mars 2015
    Messages
    1 189
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Belgique

    Informations professionnelles :
    Activité : ingénieur qualité
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Mars 2015
    Messages : 1 189
    Points : 3 634
    Points
    3 634
    Par défaut
    Citation Envoyé par calvaire Voir le message
    vu que tesla n'a pas de lidar non le fsd n'a peut etre pas vu que c'était un obstacle.
    C'est pour ça que je suis contre l'abandon de cette technologie ou d'une autre qui permet de percevoir les surfaces/volumes.
    et meme avec le lidar, il faut comprendre que l'obstacle (le train) avance et la voiture aussi et calculer que oui il y'a collision si les 2 vecteurs continue d'avancer au même rythme dans 30 secondes...
    Pour un LIDAR il est facile d'identifier si l'objet bouge (dans quelle direction et à quelle vitesse) parce que l'effet Doppler entraine une variation de la fréquence du signal de retour.
    Donc en 1s d'analyse on doit être capable d'évaluer si l'obstacle bouge, s'il bouge de façon chaotique ou non, et d'évaluer une surface à laquelle il va se trouver dans, 1s, 10s, 30s etc. (avec une incertitude qui augmente progressivement)
    J'espère qu'une Tesla est capable d'évaluer sa trajectoire nominale dans les 2 prochaine minutes (elle a une route, un GPS pour l'aider).
    Ce qui donne pas mal d'information sur la probabilité d'impact, sur la gravité de l'impact et sur quelques choix pour empêcher/minimiser cette probabilité et/ou gravité.

    Je peux faire un paquet d'hypothèse pour identifier un obstacle sans LIDAR mais pourquoi le faire si un LIDAR le fera toujours mieux et plus vite que tout ce que je vais suggérer via une caméra.
    Exemple : Une route ne s'interrompt que dans les cas suivants :
    Je suis en haut d'une colline (elle ne s'interrompt pas, je ne vois juste pas la suite)
    Je suis dans un virage (elle ne s'interrompt pas, la suite est hors du champs de la caméra)
    Il y a un carrefour en T (elle croise une autre route, il y a des indications au sol ou un panneau)
    Il y a un truc au milieu de la route (la perspective change soudainement, ou je ne suis dans aucun cas précédents), et par truc j'entends aussi un trou parce que je dois autant l'éviter qu'un camion couché ou qu'un train.

    Tout ce que je dit est bien sur caricatural, ce n'est pas un hasard si peu y arrivent.
    Mais, face à un enjeu majeure (ce qu'est le FSD pour Tesla), une preuve d'intelligence consiste à faciliter la collecte des données (avec un lidar/sonar par exemple) plus tot que se baser sur un système moins fiable (une caméra).

  10. #430
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    1 947
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 1 947
    Points : 53 724
    Points
    53 724
    Par défaut Une Tesla avec le Full Self Driving activé percute une voiture de police
    Une Tesla avec le Full Self Driving activé percute une voiture de police et vient allonger la liste des enquêtes sur les cas de collisions
    Impliquant une Tesla avec la fonction de conduite autonome active

    Full Self-Driving (FSD) s’entend conduite entièrement autonome. Full Self-Driving est aussi le nom donné par Tesla à son programme d’essais visant à atteindre la conduite entièrement autonome classée au niveau 5 sur l’échelle de classification de la SAE. L’appellation faisait déjà l’objet de controverses compte tenu des incidents dans lesquels les véhicules du constructeur se sont retrouvés impliqués depuis 2020 – période de lancement de la bêta du mode Full Self-Driving. Elle l’est de plus en plus avec la publication de récentes vidéos qui montrent des Teslas avec la fonction de conduite entièrement autonome entrain de créer des dégâts.

    Un agent de la police de Fullerton enquêtait sur un accident mortel vers minuit près des avenues Orangethorpe et Courtney. L'officier gérait la circulation et des fusées de détresse avaient été placées sur la route. L'agent se tenait à l'extérieur de son véhicule de patrouille, dont les feux de détresse étaient allumés et a réussi à s'écarter avant que le conducteur d'une Tesla bleue ne percute sa voiture. Aucun policier n'a été blessé dans l'accident. Le conducteur de la Tesla affirme qu'il conduisait le véhicule en mode de conduite autonome tout en utilisant son téléphone portable, selon le rapport de police. Il est resté sur les lieux et a coopéré à l'enquête.


    Un incident qui fait suite à un autre dans lequel une Tesla se trouve à deux doigts de se faire écraser par un train parce que la technologie de conduite autonome n’a pas détecté ce dernier.

    C’est grâce à l’intervention du propriétaire que le pire ne s’est pas produit. Le conducteur déclare que sa Tesla n'a pas ralenti à l'approche du train et qu'il a freiné et pris la direction de la voiture manuellement, la faisant dévier de la route pour éviter le train.

    « Je me suis dit qu'il était impossible qu'il ne voie pas le train. Il est impossible qu'il ne voie pas les feux clignotants. Oui, il y avait du brouillard, mais on pouvait quand même voir les lumières », précise-t-il.


    L'accident s'est produit dans la matinée du 8 mai. M. Doty, évaluateur général certifié dans l'Ohio, conduisait à environ 100 km par heure, selon un rapport d'accident de Tesla. La limite de vitesse sur la route était de moins de 90 km par heure, selon Doty et un rapport de police associé à l'accident. Les conducteurs peuvent demander des rapports d'accident à Tesla, qui sont générés à partir des données que les voitures individuelles envoient aux serveurs de Tesla. La vidéo même a été enregistrée par le véhicule accidenté.

    Tesla enchaîne les procès en raison des dégâts qui résultent des défaillances de son système dénommé Full Self-Driving

    Tesla doit faire face à un procès intenté par des propriétaires de véhicules sur la question de la conduite autonome. Ils accusent Elon Musk de les avoir induits en erreur en leur faisant croire que leurs véhicules pourraient bientôt être dotés de capacités de conduite autonome.

    Tesla Autopilot est un système avancé d'aide à la conduite développé par Tesla qui équivaut à une automatisation partielle du véhicule (automatisation de niveau 2, selon la définition de SAE International). Tesla fournit un "Autopilot de base" sur tous les véhicules, qui comprend le centrage sur la voie et le régulateur de vitesse en fonction du trafic.

    Les propriétaires peuvent acheter une mise à niveau vers l'"Enhanced Autopilot" (EA), qui ajoute la navigation semi-autonome sur les routes à accès limité, le stationnement automatique et la possibilité d'appeler la voiture depuis un garage ou une place de parking. Full Self-Driving (FSD) est le nom donné par Tesla à son programme d'essais bêta visant à atteindre la conduite entièrement autonome (SAE Level 5). L'appellation est controversée, car les véhicules fonctionnant sous FSD restent au niveau 2 d'automatisation et ne sont donc pas "entièrement autonomes" et nécessitent une supervision active de la part du conducteur.

    L'intention déclarée de l'entreprise est d'offrir une conduite entièrement autonome à l'avenir, tout en reconnaissant que des obstacles techniques et réglementaires doivent être surmontés pour atteindre cet objectif. Depuis 2013, le PDG de Tesla, Elon Musk, a fait à plusieurs reprises des prédictions inexactes selon lesquelles Tesla atteindrait l'autonomie de niveau 5 dans un délai d'un à trois ans.

    Un juge américain a rejeté récemment la demande de Tesla de rejeter une plainte accusant le constructeur de voitures électriques d'Elon Musk d'avoir fait croire aux propriétaires que leurs véhicules pourraient bientôt être dotés de capacités de conduite autonome. Le recours collectif proposé à l'échelle nationale accuse Tesla et Musk d'avoir, depuis 2016, faussement annoncé qu'Autopilot et d'autres technologies de conduite autonome étaient fonctionnelles ou "juste au coin de la rue", incitant les conducteurs à payer plus cher pour leurs véhicules.


    La juge du district de San Francisco, Rita Lin, a déclaré que les propriétaires pouvaient engager des poursuites pour négligence et fraude, dans la mesure où ils s'étaient fiés aux déclarations de Tesla concernant le matériel des véhicules et leur capacité à conduire d'une côte à l'autre des États-Unis. Sans se prononcer sur le fond, M. Lin a déclaré que "si Tesla voulait faire croire que son matériel était suffisant pour atteindre un niveau d'automatisation élevé ou complet, l'allégation est manifestement suffisamment fausse".

    L'affaire a été menée par Thomas LoSavio, un avocat californien à la retraite qui a déclaré avoir payé une prime de 8 000 $ en 2017 pour les capacités de conduite autonome complète (FSD) sur une Tesla Model S, pensant que cela rendrait la conduite plus sûre si ses réflexes se détérioraient à mesure qu'il vieillissait. LoSavio a déclaré qu'il attendait toujours la technologie six ans plus tard, Tesla restant incapable "même de loin" de produire une voiture à conduite entièrement autonome.

    L'action en justice vise à obtenir des dommages et intérêts non spécifiés pour les personnes qui, depuis 2016, ont acheté ou loué des véhicules Tesla dotés des fonctions Autopilot, Enhanced Autopilot et Full Self-Driving. Depuis de nombreuses années, Tesla fait l'objet d'enquêtes fédérales visant à déterminer si sa technologie de conduite autonome a pu contribuer à des accidents mortels.

    Les procureurs fédéraux examinent séparément si Tesla a commis une fraude en matière de valeurs mobilières ou une fraude électronique en trompant les investisseurs sur les capacités de conduite autonome de ses véhicules, selon trois personnes familières avec l'affaire.

    Tesla a déclaré que l'Autopilot permettait aux véhicules de se diriger, d'accélérer et de freiner dans leur voie, et que le Full Self-Driving permettait aux véhicules d'obéir aux feux de signalisation et de changer de voie. Mais l’entreprise a reconnu qu'aucune de ces technologies ne rendait les véhicules autonomes, ni ne dispensait les conducteurs de prêter attention à la route.

    La Californie a même adopté une loi pour interdire à Tesla d’appeler le logiciel de ses véhicules Full Self Driving

    Le PDG de Cruise est d’avis que « même dans des décennies, l’on n’obtiendra pas de véhicules véritablement autonomes à 100 %. » Pourtant, le constructeur américain Tesla associe de la terminologie comme Full Self-Driving ou Autopilot à la publicité de ses véhicules. C’est la raison pour laquelle la Californie a procédé à l’adoption d’une loi qui interdit à Tesla d’appeler le logiciel de ses véhicules Full Self-Driving. Motif : c’est de la publicité mensongère qui laisse croire que les véhicules Tesla sont totalement autonomes.

    « Un fabricant ou un concessionnaire ne doit pas nommer une fonction d'automatisation partielle de conduite ou décrire une fonction d'automatisation partielle de conduite dans des documents publicitaires en utilisant un langage qui implique ou qui pourrait autrement amener une personne raisonnable à croire que la fonction permet au véhicule de fonctionner comme un véhicule autonome ou qu'elle possède une fonctionnalité qui n'est pas réellement incluse dans la fonction. Une violation de cette subdivision est considérée comme une publicité mensongère », lit-on.

    Et vous ?

    Partagez-vous les avis selon lesquels les véhicules Tesla ne sont pas prêts pour rouler sur des routes publiques ?
    Quel commentaire faites-vous de la politique publicitaire autour des systèmes d'aide à la conduite de Tesla ?

    Voir aussi :

    L'Autopilot de Tesla fait l'objet d'une nouvelle enquête visant à vérifier l'efficacité d'une mise à jour publiée après le rappel de plus de 2 millions de véhicules. La NHTSA exprime des doutes

    Un juge trouve des preuves que Tesla et Musk étaient au courant du défaut de l'Autopilot. Les déclarations de Musk auraient eu un effet significatif sur la croyance concernant les capacités du produit

    Les avocats de Tesla affirment que les déclarations passées d'Elon Musk sur la sécurité de l'Autopilot pourraient n'être que des deepfakes, un juge a déclaré que cet argument est "troublant"
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  11. #431
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    1 947
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 1 947
    Points : 53 724
    Points
    53 724
    Par défaut le FSD n’est qu’une démo de technologie sans grande valeur pratique », selon un testeur
    « On ne peut pas faire confiance au Full Self Driving de Tesla pour prendre les bonnes décisions », d’après un testeur
    Qui ajoute que « le FSD n’est qu’une démo de technologie sans grande valeur pratique. »

    Les détracteurs du Full Self-Driving (FSD) se multiplient et continuent à sensibiliser les consommateurs sur les dangers du logiciel de conduite autonome de Tesla. Jason Hughes, un pirate informatique bien connu dans le monde Tesla, a par le passé qualifié le FSD de Tesla d'"escroquerie flagrante à l'argent". Le pirate a accusé la société de prendre l'argent des propriétaires de Tesla en contrepartie d'un logiciel "défectueux" qui est en version bêta depuis sa sortie en 2016. Les clients doivent désormais débourser 15 000 dollars pour utiliser la version bêta FSD, mais le logiciel est loin d'avoir tenu les promesses faites par Tesla et le PDG Elon Musk. Le tableau prend un coup de neuf avec les affirmations d’un testeur selon lesquelles « le FSD c’est de la poudre de perlimpinpin. »

    « Au vu de son fonctionnement actuel, le FSD est un système auquel on ne peut pas faire confiance pour prendre les bonnes décisions. Il commet les erreurs les plus élémentaires, et il en commet beaucoup.

    Sans le FSD, le conducteur fait attention à la route et tout le reste est sous son contrôle. Avec le FSD, il doit toujours être attentif. Il y a une charge cognitive supplémentaire pour surveiller un système imprévisible sur lequel il n’a pas de contrôle direct.

    Même avec le FSD activé, il faut rester hyper concentré. En sus, il faut débourser 99 dollars par mois ou 12 000 dollars en une seule fois pour ce privilège. Peut-être qu'un jour je pourrai me rendre au lac Tahoe en tapant l'adresse, m'asseoir, faire une sieste ou jouer sur mon téléphone. En attendant, ce n'est qu'une démonstration de technologie fantaisiste sans grande valeur pratique », déclare-t-il après avoir passé le logiciel après une série de tests.

    Full Self-Driving (FSD) s’entend pourtant conduite entièrement autonome. Full Self-Driving est aussi le nom donné par Tesla à son programme d’essais visant à atteindre la conduite entièrement autonome classée au niveau 5 sur l’échelle de classification de la SAE. L’appellation faisait déjà l’objet de controverses compte tenu des incidents dans lesquels les véhicules du constructeur se sont retrouvés impliqués depuis 2020 – période de lancement de la bêta du mode Full Self-Driving. Elle fait de plus en plus l’objet de controverses au vu de la multiplication de rapports des détracteurs.


    La Californie a même adopté une loi pour interdire à Tesla d’appeler le logiciel de ses véhicules Full Self Driving

    Le PDG de Cruise est d’avis que « même dans des décennies, l’on n’obtiendra pas de véhicules véritablement autonomes à 100 %. » Pourtant, le constructeur américain Tesla associe de la terminologie comme Full Self-Driving ou Autopilot à la publicité de ses véhicules. C’est la raison pour laquelle la Californie a procédé à l’adoption d’une loi qui interdit à Tesla d’appeler le logiciel de ses véhicules Full Self-Driving. Motif : c’est de la publicité mensongère qui laisse croire que les véhicules Tesla sont totalement autonomes.

    « Un fabricant ou un concessionnaire ne doit pas nommer une fonction d'automatisation partielle de conduite ou décrire une fonction d'automatisation partielle de conduite dans des documents publicitaires en utilisant un langage qui implique ou qui pourrait autrement amener une personne raisonnable à croire que la fonction permet au véhicule de fonctionner comme un véhicule autonome ou qu'elle possède une fonctionnalité qui n'est pas réellement incluse dans la fonction. Une violation de cette subdivision est considérée comme une publicité mensongère », lit-on.

    Un ingénieur de Tesla a pourtant pris position par le passé arguant que le terme Full Self Driving n’implique pas l’autonomie et ne constitue pas une exagération des capacités du logiciel. Il faut néanmoins relever qu’au sein de l’industrie automobile, pratiquement tous les autres constructeurs automobiles ont réussi à trouver des noms plutôt génériques pour leurs implémentations de systèmes de conduite autonome : Ford BlueCruise, GM Super Cruise, BMW Driving Assistance Professional, Mercedes Drive Pilot, Toyota Safety Sense 3.0, Rivian Highway Assist, etc.

    Ces noms impliquent tous que la voiture intègre un système d’aide à la conduite, mais aucun d'entre eux n'implique de signification supplémentaire sur leurs capacités ou ne suggère quoi que ce soit sur leur autonomie. Tesla est pratiquement la seule entreprise à adopter des noms - Autopilot, et plus tard, Full Self-Driving.

    Source : Résultats des tests

    Et vous ?

    Partagez-vous les avis selon lesquels la terminologie Full Sel Driving qu’utilise Tesla est trompeuse sur les capacités réelles du logiciel intégré à ses véhicules ?

    Voir aussi :

    Le mode Full Self-Driving de Tesla a tellement énervé cet homme qu'il se présente au Sénat, Dan O'Dowd est mécontent du fait que le logiciel bêta de Tesla soit testé sur la voie publique

    Tesla se prépare à son premier procès impliquant un accident mortel lié à l'Autopilot, dans ce qui sera probablement un test majeur des affirmations d'Elon Musk au sujet de la technologie

    Une Tesla en mode Autopilot a percuté des voitures de police malgré les gyrophares, selon un procès
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 0
    Dernier message: 15/04/2021, 09h36
  2. Hewlett Packard Enterprise remporte un contrat de plus de 160 millions de dollars pour un supercalulateur
    Par Sandra Coret dans le forum Programmation parallèle, calcul scientifique et de haute performance (HPC)
    Réponses: 0
    Dernier message: 22/10/2020, 09h10
  3. Réponses: 9
    Dernier message: 26/09/2013, 21h34
  4. Plus d'un million d'utilisateurs pour Microsoft Dynamics CRM
    Par Marc Lussac dans le forum Microsoft Dynamics CRM
    Réponses: 1
    Dernier message: 21/09/2009, 14h14
  5. Plus d'un million d'utilisateurs pour Microsoft Dynamics CRM
    Par Marc Lussac dans le forum Actualités
    Réponses: 0
    Dernier message: 14/07/2009, 03h31

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo