Tesla aurait intimé l'ordre aux développeurs de l'Autopilot d'ignorer certains panneaux de signalisation et de s'occuper de leurs affaires et de leur niveau de salaire
selon un rapport
L'Autopilot de Tesla est sans doute le logiciel d'aide à la conduite le plus controversé de l'industrie. Un nouveau rapport indique que les employés qui examinent et étiquettent les clips vidéo pour aider à former le logiciel Autopilot de Tesla ont reçu l'ordre d'ignorer les panneaux interdisant les demi-tours et les virages à droite sur les feux rouges. Tesla aurait dit à l'équipe d'étiquetage de données que le but est d'avoir des voitures capables de se conduire comme le ferait un humain, et non comme un robot qui se contente de suivre les règles. Ces révélations pourraient en effet expliquer les comportements des véhicules Tesla dans certains cas.
L'Autopilot de Tesla est un logiciel controversé qui suscite plusieurs préoccupations
L'Autopilot est un système avancé d'aide à la conduite (ADAS) développé par Tesla et qui lui permet une automatisation partielle de ces véhicules électriques (automatisation de niveau 2). Tesla fournit un Autopilot de base sur tous les véhicules, qui comprend des capacités comme le centrage sur la voie et le régulateur de vitesse en fonction du trafic. Les propriétaires de Tesla peuvent ensuite payer pour obtenir une version plus évoluée appelée Full Self-Driving (FSD) avec des capacités avancées telles que la navigation semi-autonome. Cependant, l'Autopilot de Tesla est très controversé et rencontre divers problèmes.
Un rapport publié par Business Insider, basé sur le témoignage d'un employé anonyme travaillant sur l'Autopilot de Tesla, lève un peu plus le voile sur la façon dont le logiciel est formé. Le travail quotidien de cet employé anonyme consiste à examiner les images capturées par les caméras installées sur les véhicules Tesla et à étiqueter des objets, tels que des panneaux de signalisation, des routes et des lignes de démarcation pour que le système sache de quoi il s'agit.
Il a rapporté que les inquiétudes des employés concernant l'Autopilot ont été rejetées, même lorsqu'il s'agissait d'aborder des règles routières de base qui pourraient voir l'humain derrière le volant condamné à une amende pour les avoir enfreintes. « Lorsque nous avions des préoccupations, elles étaient souvent balayées d'un revers de main. Il est arrivé qu'on nous dise d'ignorer les panneaux "ne pas tourner au rouge" ou "ne pas faire demi-tour" », a-t-il expliqué.
« C'était le genre de choses qui nous mettaient mal à l'aise, mes collègues et moi. Dans certains cas, ils nous écoutaient, mais certaines fois, la réponse générale était du genre : "occupez-vous de vos affaires et de votre niveau de rémunération" », a-t-il ajouté. Il a déclaré avoir commencé à travailler au centre de données Autopilot de Buffalo en 2022 et qu'il est arrivé sans aucune expérience dans le domaine de l'automobile ou des véhicules électriques au préalable.
Le processus de formation de l'Autopilot pose des problèmes de confidentialité
Il est probable que cet employé n'ait pas réalisé que la pratique autrefois courante des employés consistant à partager des clips amusants ou inquiétants rencontrés au cours de leur journée de travail était si délicate sur le plan éthique. Selon lui, les membres de l'équipe travaillant sur l'Autopilot partagent parfois des vidéos troublantes, dont certains peuvent être préjudiciables, faisant écho à des rapports antérieurs qui dénonçaient déjà ces pratiques. L'employé a déclaré : « en général, les gens se contentaient de partager des vidéos de choses bizarres qu'ils avaient vues, mais une fois, un collègue est allé trop loin ».
« Il a partagé la vidéo d'un petit garçon qui avait été renversé par une Tesla alors qu'il faisait du vélo. J'ai trouvé cela sadique », raconte-t-il. L'année dernière, il a été révélé que les travailleurs de ces bureaux de Tesla partageaient secrètement des clips intimes entre eux, ce qui a apparemment conduit à une répression interne de cette pratique. Les personnes travaillant de l'Autopilot ne pouvaient plus voir d'images en dehors des serveurs de leur propre équipe.
Certaines images ont été marquées d'un filigrane afin de mieux tracer leur origine en cas de fuite. Et bien qu'il ait été dit aux employés « si vous êtes pris une fois, c'est votre ticket de sortie », certains ont apparemment continué à le faire. « Parfois, les gens continuent à se passer des images au bureau, surtout s'il s'agit de quelque chose qui sort de l'ordinaire, mais cela n'arrive pas aussi souvent », a déclaré l'employé qui se dit troublé par ces événements.
Dans l'ensemble, ce travailleur a déclaré qu'il était désillusionné par l'entreprise qu'il considérait autrefois comme une excellente opportunité de carrière. Lors de son témoignage, il a déclaré au média qu'il pense que « Tesla est une entreprise dystopique ». Cet employé a également évoqué les effets négatifs que l'étiquetage de données, notamment le visionnage continu de plusieurs heures de clips vidéo, pourrait avoir sur la santé mentale des travailleurs.
« Nous passons en revue entre cinq heures et demie et six heures d'images par jour. Il peut être très difficile de se concentrer. On peut se retrouver dans une sorte de brouillard lorsqu'on ne fait que regarder un clip après l'autre et il peut être difficile de rester sain d'esprit », a déclaré l'initié de Tesla lors de son interview.
Tesla aurait également déployé un logiciel de surveillance étroite de ses employés
C'est étrange de voir la conduite quotidienne de quelqu'un, mais c'est également un élément important qui permet de corriger et d'affiner le système Autopilot. Cependant, outre les problèmes de confidentialité et les potentiels effets négatifs sur la santé mentale des personnes chargées d'étiqueter les données, l'employé a évoqué un autre problème important lors de son témoignage. Il a déclaré que Tesla surveille étroitement les employés travaillant dans les bureaux d'étiquetage de données à l'aide d'un logiciel appelé Flide Time. Tesla suivrait également les frappes sur le clavier et la durée consacrée à chaque tâche.
L'utilisation de logiciels avancés, généralement basés sur l'IA, pour surveiller les employés sur le lieu du travail semble avoir pris de l'ampleur dans les grandes entreprises. L'employé de Tesla a laissé entendre que le logiciel de Tesla pouvait être une source de stress permanent pour les travailleurs. Tesla utilise Flide Time pour microgérer les employés et se base régulièrement sur les données du logiciel pour licencier les employés jugés non performants :
Mais Tesla n'est pas le seul à avoir recours à ce type de logiciel. Selon un rapport publié en avril dernier, Aware, une société spécialisée dans l'analyse des messages des employés, fournit des outils d'IA qui permettent aux entreprises de surveiller leurs employés, notamment les conversations sur les canaux de collaboration et de messagerie comme Teams et Zoom. Cette forme de surveillance semble nettement plus invasive que les méthodes utilisées par le passé.Envoyé par L'employé de Tesla
Les experts et les défenseurs de la vie privée dénoncent cette pratique et appellent à une réglementation visant à l'interdire. Pour l'employé de Tesla, il s'agit d'une douche froide. Il a déclaré lors de son entretien : « mon expérience chez Tesla a été différente de ce que j'avais imaginé lorsque j'ai commencé. Je pensais qu'il s'agirait d'une grande opportunité pour ma carrière, mais maintenant je considère Tesla comme une entreprise dystopique ».
L'Autopilot de Tesla fait l'objet d'un nombre important d'enquêtes fédérales
Malgré les noms Autopilot (pilote automatique) et Full Self-Driving (conduite entièrement autonome), « ces systèmes ne rendent pas les véhicules Tesla autonomes » et la société exige que les conducteurs gardent leurs mains sur le volant lorsqu'ils sont activés. L'ordinateur de bord bloque le fonctionnement si le système détecte que le conducteur n'est pas attentif. Mais de nombreux utilisateurs ont trouvé par le passé différents moyens de contourner les contrôles qui les régissent. Cette situation alarmante a conduit au rappel de plus de deux millions de véhicules Teslas aux États-Unis à la fin de l'année dernière.
La NHTSA (National Highway Traffic Safety Administration) avait constaté à l'époque que les dispositifs de sécurité mis en place n'étaient pas suffisants pour empêcher les conducteurs d'utiliser l'Autopilot dans de mauvaises conditions. L'Autopilotde Tesla a fait l'objet de plus de 40 enquêtes de la NHTSA, ce qui inclut au moins 23 décès aux États-Unis. Ces enquêtes portent également sur des collisions de véhicules Tesla avec des véhicules d'urgents en stationnement.
Tesla semble sur une pente descendante avec une baisse de 40 % du cours de l'action sur les quatre premiers mois de l'année. La chute du cours de l'action a été déclenchée en partie par des "baisses agressives" de prix des véhicules électriques, la baisse des marges bénéficiaires et « un changement de stratégie qui semble donner la priorité aux technologies de conduite autonome plutôt qu'à la production de voitures traditionnelles dans les années à venir ».
Malgré ses efforts, Tesla ne parvient toujours pas à dépasser le niveau 2 de la conduite autonome. Mais encore, une mise à jour des CGU de Tesla a révélé que l'entreprise a cessé d'offrir le FSD à la vente, mais une version dite supervisée. Tesla a modifié la terminologie marketing autour de son logiciel de conduite autonome. Auparavant, les clients avaient la possibilité d'acheter le FSD avec un texte additionnel indiquant que « le FSD sera continuellement amélioré ».
Ce texte spécifique a été retiré, et à la place, les clients ne peuvent désormais acheter que le « FSD (supervisé) », qui ne mentionne plus l'amélioration continue. Le changement apparaît comme un aveu de publicité mensongère. En effet, il fait suite à l’adoption d’une loi en Californie interdisant à Tesla d’appeler son logiciel Full Self-Driving, car c’est de la publicité mensongère qui laisse croire aux conducteurs que les véhicules Tesla sont entièrement autonomes.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des allégations sur le processus d'étiquetage des données de formation de l'Autopilot ?
Selon vous, pourquoi le logiciel Autopilot de Tesla rencontre-t-il autant de problèmes sur les routes ?
Que pensez-vous de la surveillance étroite mise en place par Tesla dans ses bureaux ?
Quels impacts cette forme de surveillance pourrait avoir sur les employés et leur productivité ?
Voir aussi
Tesla désormais sur une pente descendante avec une baisse de 40 % du cours des actions et la réduction des marges bénéficiaires, ainsi que des difficultés à innover plus rapidement que ses rivaux
Les entreprises comme Walmart et Delta utilisent l'IA pour surveiller en temps réel les messages des employés sur les applications de collaboration, afin de contrôler le sentiment et la toxicité
Tesla n'offre plus le logiciel Full Self-Driving à la vente, mais plutôt une version dite supervisée, d'après une mise à jour de ses CGU qui cache un aveu de publicité mensongère
Partager