Des universitaires suggèrent de doter les robots autonomes d’une « boîte noire éthique »
pour retracer et expliquer leurs actions en cas d’accident
Les robots intelligents s’invitent de plus en plus dans notre quotidien et dans des environnements moins contrôlés. Et en dépit de leur niveau de sophistication sans cesse croissant, les risques d’accident sont loin d’être nuls. « Les accidents, nous l'espérons, seront rares, mais ils sont inévitables », a déclaré Alan Winfield, professeur d'éthique des robots à l'Université de l'Ouest de l'Angleterre à Bristol. « Là où les robots et les humains devront collaborer, il y aura une situation potentielle pour les accidents », dit-il.
Les accidents, on en dénombre beaucoup, certains moins graves, mais d’autres mortels. L’année dernière par exemple, un homme a perdu la vie dans un accident avec sa Tesla Model S. Joshua Brown avait déclenché le système de pilotage automatique quand il fut heurté par un camion au niveau d’une intersection. Ni lui ni les capteurs de la voiture n’ont pu détecter le camion qui a traversé son chemin, entraînant ainsi une collision mortelle. L’incident a conduit à des critiques selon lesquelles la société Tesla d'Elon Musk a donné un « faux sentiment de sécurité » à ses clients alors qu’en réalité elle testait une technologie de sécurité critique sur ces derniers. Une enquête menée par l'Agence nationale des routes et des transports des USA (NHTSA) a toutefois rejeté la faute sur le conducteur.
Dans ce genre de situation, avant même de parler de responsabilité, il est important de comprendre ce qui s’est réellement passé. « Les accidents graves devront être étudiés, mais que faites-vous si un enquêteur arrive et découvre qu'il n'y a pas de données internes, qu'il n'y a aucun enregistrement de ce que le robot faisait au moment de l'accident ? Il sera plus ou moins impossible de dire ce qui s'est passé », a déclaré Winfield. Alan Winfield et Marina Jirotka – un professeur d'informatique centrée sur l'Homme à l'Université d'Oxford - soutiennent donc que les entreprises de robotique devraient suivre l'exemple de l'industrie aéronautique. Cette dernière a en effet introduit des boîtes noires et des enregistreurs vocaux des cabines de pilotage afin qu’en cas d’accident, les enquêteurs puissent comprendre ce qui a provoqué l'accident et s'assurer que des leçons cruciales de sécurité ont été apprises.
Les universitaires pensent que les robots devraient être équipés d'une « boîte noire éthique » pour suivre leurs décisions et leur permettre d'expliquer leurs actions lorsque des accidents se produisent. Installée dans un robot, une « boîte noire éthique » enregistrerait en effet les décisions du robot, les éléments sur lesquels il se base pour les prendre, ses mouvements et l'information provenant de capteurs tels que des caméras, des microphones. Ils estiment que la nécessité d'une telle mesure de sécurité est devenue plus pressante étant donné que les robots se sont propagés au-delà des environnements contrôlés des lignes de production industrielle pour travailler aux côtés des humains comme des voitures sans conducteur, des gardes de sécurité, des aides-soignants et assistants clients.
Les chercheurs pensent que l'introduction de boîtes noires éthiques aurait des avantages au-delà de l'enquête sur les accidents. Les mêmes dispositifs pourraient doter les robots - assistants de soins de longue durée, par exemple - de la possibilité d'expliquer leurs actions en langage simple, afin d'aider les utilisateurs à avoir confiance dans la technologie. Leurs propositions seront discutées ce jeudi lors d’une conférence à l'Université de Surrey, où les experts discuteront des progrès vers des robots autonomes qui peuvent fonctionner sans contrôle humain.
Source : The Guardian
Et vous ?
Que pensez-vous de doter les robots autonomes d’une « boîte noire éthique » ?
Quels sont les bénéfices attendus selon vous ?
La nécessité est-elle plus importante que les risques potentiels liés à un tel dispositif ?
Voir aussi :
UE : le CESE s'oppose à la mise en place d'une personnalité juridique pour les robots ou IA, craignant un risque moral des fabricants et utilisateurs
Un robot renverse un enfant dans un centre commercial en Californie, son champ de vision limité l'ayant empêché de voir le bébé de 16 mois
La technologie Autopilot serait-elle à l'origine d'un accident mortel d'une voiture Tesla Model S ? Une enquête préliminaire a été ouverte
Partager