La police de Londres déploiera des caméras de reconnaissance faciale dans toute la ville,
les militants de protection de la vie privée ont qualifié cette décision de « menace grave pour les libertés civiles »
Depuis 2017, la police du Royaume-Uni a démarré une opération de tests avec des caméras soutenues par un système d’intelligence artificielle (IA) (nommé AFR Locate) pour la reconnaissance faciale en temps réel des individus. Pour la phase de tests, le déploiement a été effectué dans un premier dans South Wales, une des quatre régions du pays de Galles. Lorsque le système a été déployé, les premiers tests effectués ont montré des insuffisances au niveau de la technologie de reconnaissance faciale. 98 % des cas d’alerte émis par le système d’intelligence artificielle étaient des faux positifs.
Il faut savoir que pour effectuer une interpellation sur la base des détections effectuées par l’IA, le système effectue un croisement entre les images capturées en temps réel et celles enregistrées dans une base de données de personnes recherchées. Si la correspondance est établie, une alerte est envoyée aux agents de police qui prennent soin de vérifier que la reconnaissance effectuée n’est pas une erreur avant de procéder à une interpellation. Mais comme indiqué, le nombre de faux positifs était élevé et aucune arrestation n’a pu être effectuée.
Face aux insuffisances avérées de l’IA, les autorités anglaises ont apporté des améliorations à l’algorithme soutenant par l’IA en sollicitant le concours de l’entreprise technologique japonaise NEC tout en poursuivant les tests. Après 12 mois de recherche, NEC a fourni un nouvel algorithme et une nouvelle application qui a permis de réduire considérablement le pourcentage de faux positifs par rapport aux premiers tests. Et entre 2017 et 2018, 450 personnes ont pu être mises aux arrêts grâce à ce système.
Après les résultats dits concluants obtenus dans la région de South Wales et des améliorations apportées après les tests effectués dans quelques quartiers de Londres, la police britannique passe à un niveau supérieur et vient d’annoncer que le Service de Police Métropolitain de Londres (abrégé Met) compte utiliser pour la première fois la technologie de reconnaissance faciale en temps réel (abrégée LFR en anglais) dans des endroits spécifiques de Londres. Comme pour South Wales, les autorités britanniques déclarent que ces outils ont pour objectif de « lutter contre les délits graves, notamment la violence grave, les délits commis à l’aide d’armes à feu et à couteaux, l’exploitation sexuelle des enfants et à protéger les personnes vulnérables ».
Les caméras devraient être déployées dans un mois, selon certaines sources. Le commissaire adjoint Nick Ephgrave explique qu’il « s’agit d’un développement important pour le Met et qui est vital pour nous aider à lutter contre la violence ». Il ajoute qu’une « technologie similaire est déjà largement utilisée au Royaume-Uni, dans le secteur privé. La nôtre a été testée par nos équipes technologiques pour une utilisation dans un environnement de police opérationnelle ».
Nous précisons que la technologie que la police londonienne compte utiliser est toujours celle de l’entreprise NEC. Le Met la présente comme « un outil supplémentaire pour les aider à faire ce que les agents ont toujours fait - essayer de localiser et d’arrêter les personnes recherchées ». Il ne s’agit donc pas d’une situation « où la technologie prend le relais des services de police traditionnels ». Plutôt, « il s’agit d’un système qui donne simplement aux agents de police une invite, suggérant que cette personne là-bas peut être la personne que vous recherchez. La décision revient toujours à un agent d’engager ou non quelqu’un », fait remarquer le Met.
« Le Met commencera le déploiement opérationnel du LFR à des endroits où les renseignements suggèrent que nous sommes les plus susceptibles de localiser des délinquants graves. Chaque déploiement aura une liste de surveillance sur mesure composée d’images de personnes recherchées, principalement celles recherchées pour des délits graves et violents » explique le service de police. Et « lors d’un déploiement, les caméras seront concentrées sur une petite zone ciblée pour scanner les passants. Les caméras seront clairement signalées et les officiers déployés pour l’opération distribueront des dépliants sur l’activité. La technologie, qui est un système autonome, n’est liée à aucun autre système d’imagerie, tel que la vidéosurveillance, la vidéo corporelle ou l’ANPR », précise le Met. Mais avant le déploiement, le commissaire adjoint souligne qu’un dialogue sera engagé avec leurs partenaires et leurs communautés au niveau local.
Si le Met présente cette initiative comme nécessaire et avantageuse pour l’efficacité des missions des agents de police, il n’en demeure pas moins que des appréhensions sont entretenues par les individus. Au niveau de la précision du système par exemple, le Met a déclaré que lors de ses tests qui ont été effectués avec le personnel de la police dont les images étaient dans la base de données, les résultats suggéraient que 70 % des suspects recherchés seraient identifiés en passant devant les caméras avec un taux de fausse alerte de 1 personne sur 1000. Mais un rapport de Human Rights, Big Data & Technology Project publié en juillet 2019 a rapporté qu’au cours des six tests effectués seulement 8 correspondances sur 42 ont donné des résultats fiables. De même, des militants ont averti que la précision pourrait être catastrophique pour les Noirs et les minorités ethniques, car le logiciel est formé à reconnaître principalement des visages des Blancs.
Au-delà des inquiétudes concernant la fiabilité du système de reconnaissance faciale, certains défenseurs de la vie privée ont décrit le déploiement de ce système comme une attaque contre les libertés civiles. Silkie Carlo, directeur de Big Brother Watch, affirme pour sa part que « cette décision représente une énorme expansion de l’État de surveillance et une grave menace contre les libertés civiles au Royaume-Uni ». Pour ce dernier, « il s’agit d’une attaque à couper le souffle contre nos droits et nous allons la contester, notamment en envisageant d’urgence les prochaines étapes de notre action en justice contre le Met et le ministre de l’Intérieur. Cette décision entache instantanément le bilan du nouveau gouvernement en matière de droits de l’homme et nous appelons à un réexamen immédiat ».
Mais le Royaume-Uni n’est pas le seul pays où ces technologies de surveillance de masse sont utilisées. Aussi bien la Chine, la Russie, les États-Unis que la France utilisent déjà ces systèmes basés sur l’intelligence artificielle. Pensez-vous que le Royaume-Uni devrait s’en passer pour assurer la sécurité de ses citoyens ?
Source : Metropolitain Police, BBC, NYT, Daily Mail
Et vous ?
Quel est votre avis sur l’utilisation de la reconnaissance faciale pour identifier et arrêter les personnes recherchées ? Bonne solution ou outil à proscrire par les forces de l’ordre ?
Selon vous, ces caméras sont-elles une menace grave contre les libertés civiles ?
Voir aussi
Les caméras de reconnaissance faciale : outils de sécurité ou d’espionnage de masse ?
La Chine et d’autres pays adoptent de plus en plus ces outils
Chine : la police se sert de la reconnaissance faciale pour arrêter un fugitif, la fiction Big Brother de 1984 est-elle devenue une réalité en 2018 ; ?
Moscou utilise la reconnaissance faciale pour traiter les vidéos fournies par les caméras de surveillance publique, mesure de sécurité, espionnage ;
USA : les représentants critiquent l’utilisation de technologie de reconnaissance faciale par le FBI et demandent une réglementation plus stricte
Paris : la reconnaissance faciale pour le contrôle automatisé des passeports n’arrivera pas ce printemps, sa mise en service prévue pour le 18 juillet
Partager