[IRONIE]
Manque plus que le questionnaire de satisfaction
[/IRONIE]
L'Argentine utilisera l'IA pour prédire les crimes futurs malgré les inconvénients relatifs aux logiciels de police prédictive
notamment les risques élevés de faux positifs et de violation des droits de l'homme
Le président argentin Javier Milei crée une unité de sécurité qui utilisera l'IA pour prédire les crimes futurs et aider à les prévenir. L'unité de la police utilisera des algorithmes d'apprentissage automatique pour analyser les données criminelles historiques afin de prédire les crimes futurs. Elle devrait en outre déployer des logiciels de reconnaissance faciale pour identifier les personnes recherchées, patrouiller sur les médias sociaux et analyser en temps réel les images des caméras de sécurité pour détecter les activités suspectes. Mais l'initiative suscite de vives inquiétudes et les experts mettent en garde contre les violations de la vie privée et les biais de la technologie.
L'Argentine lance un programme de surveillance basée sur l'IA à l'échelle nationale
Il semble que les autorités argentines ne voient pas d'inconvénient à s'inspirer des films hollywoodiens pour résoudre des crimes dans la vie réelle. Le pays d'Amérique latine lance une initiative qui s'inspire fortement l'univers du film de science-fiction Minority Report, où en 2054, l'humanité a réussi à éradiquer les crimes en s'appuyant sur un système de prévention, de détection et de répression le plus sophistiqué du monde. Dissimulés de tous, trois extra-lucides transmettent les images des crimes à venir aux policiers de la Précrime. L'idée des autorités argentines dérange et des voix s'élèvent contre son application.
Les forces de sécurité argentines ont annoncé la création d'une nouvelle unité conçue pour utiliser l'IA afin de prédire les crimes futurs, une initiative qui a suscité de vives inquiétudes parmi les experts des droits de l'homme. Cette unité de police prédictive, baptisée "Artificial Intelligence Applied to Security Unit", utilisera des algorithmes d'apprentissage automatique pour analyser les données historiques de la criminalité afin de prédire les activités criminelles potentielles.
En outre, l'unité devrait utiliser la technologie de reconnaissance faciale pour identifier "les personnes recherchées", surveiller les médias sociaux et analyser les images des caméras de sécurité en temps réel pour détecter les comportements suspects. Le ministère argentin de la Sécurité explique que cette initiative permettrait de mieux détecter les dangers potentiels, d'identifier les mouvements de groupes criminels et d'anticiper les troubles. Mais cela suscite le scepticisme.
L'initiative a été accueillie avec inquiétude par les organisations de défense des droits de l'homme, qui craignent qu'elle ne conduise à de graves atteintes à la vie privée et au ciblage de groupes sociaux spécifiques. Selon experts, la mise en œuvre de cette technologie pourrait entraîner un contrôle disproportionné de certaines communautés. Des inquiétudes ont également été exprimées quant à l'étendue de l'accès des forces de sécurité à ces informations sensibles.
Amnesty International craint que cette surveillance à grande échelle puisse porter atteinte aux droits de l'homme, en particulier à la liberté d'expression. Mariela Belski, directrice exécutive du groupe en Argentine, affirme que cela pourrait inciter les individus à s'autocensurer ou à éviter de partager leurs idées et leurs critiques s'ils pensent qu'ils sont surveillés. Le Centre argentin d'études sur la liberté d'expression et l'accès à l'information (CELE) a évoqué les dangers potentiels.
Le CELE craint particulièrement les risques liés à une utilisation abusive de ces technologies. Il a déclaré que "ces technologies ont toujours été utilisées pour établir le profil d'universitaires, de journalistes, de politiciens et d'activistes", ce qui, en l'absence de contrôle, menace la vie privée.
Les technologies de police prédictive ne sont ni efficaces ni fiables dans la pratique
Le président argentin Javier Milei, un libertaire d'extrême droite qui est arrivé au pouvoir l'année dernière, a prôné une approche sévère à l'égard de la criminalité. Et la ministre argentine de la Sécurité Patricia Bullrich semble adopter une approche de plus en plus militarisée de la politique de sécurité. Cependant, la dernière initiative des autorités argentines visant à transposer Minority Report dans la réalité se heurte à une opposition farouche. La mesure a suscité une réaction particulièrement vive dans un pays au passé sombre de répression étatique, comme la dictature militaire brutale et violente de 1976 à 1983.
Historiquement, les logiciels de police prédictive ont connu peu de succès. Une étude publiée en octobre dernier indique que le recours à ces logiciels pourrait n'être qu'une perte de temps. Le rapport de l'étude souligne que les prédictions de crimes générées par ces logiciels correspondent rarement aux crimes signalés. L'étude suggère en réalité que les algorithmes de prédiction utilisés par la police ne sont pas plus aptes à prédire l'avenir qu'une boule de cristal.
Dans un cas spécifique, l'équipe de recherche a remarqué que les prédictions faites par logiciel utilisé par la police de Plainfield, dans le New Jersey, ne pouvaient être considérées comme justes que dans 0,5 % des cas. Les prédictions concernant les vols ou les agressions graves susceptibles de se produire avaient un taux de réussite de 0,6 % et les prédictions de cambriolage avaient un taux de réussite de 0,1 %. La police prédictive a connu une grande popularité dans plusieurs pays.
Mais bien que certains policiers ne jurent que par elle, il n'y a pas toujours eu beaucoup de preuves que cette technologie fonctionne vraiment bien. Des études ont souligné au fil des ans les problèmes des logiciels de police prédictive. L'un des défauts des algorithmes prédictifs est qu'ils reposent sur un raisonnement inductif. Il s'agit de tirer des conclusions sur la base de la connaissance d'un petit échantillon et de supposer qu'elles s'appliquent à l'ensemble de la population.
Des études portant sur ces logiciels ont révélé qu'une personne noire avait cinq fois plus de chances d'être arrêtée sans raison valable qu'une personne blanche. Dans certains cas, des suspects ont été condamnés à tort. L'analyse des résultats du logiciel de prédiction des crimes Geolitica, utilisé par la police de Plainfield, a révélé que la police prédictive a été un gigantesque gâchis qui n'a produit pratiquement aucun résultat utile, tout en coûtant cher aux contribuables.
« Prédire des crimes dans des endroits où ils ne se produisent pas est une question destructrice. La police est un service, mais c'est un service qui peut avoir des conséquences négatives. Si vous envoyez la police quelque part, de mauvaises choses pourraient s'y produire », a déclaré le criminologue David Weisburd.
Par ailleurs, une étude de l'Université d'État de Caroline du Nord a révélé que les services de police utilisent ces logiciels sans même comprendre comment ces technologies fonctionnent. L’étude a montré que les policiers n’étaient pas bien informés sur les technologies d’IA qu’ils utilisent.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de l'utilisation de l'IA pour la prédiction des crimes futurs ?
Que pensez-vous des dangers liés à l'utilisation des logiciels de police prédictive ?
Pourquoi ces logiciels restent populaires malgré les rapports montrant qu'ils sont inefficaces ?
Peut-on rendre ces logiciels plus efficaces et plus fiables ? Peut-on corriger les biais dont ils souffrent ?
La technologie peut-elle être plus efficace pour lutter contre la criminalité que les approches traditionnelles ? Pourquoi ?
Voir aussi
Une étude affirme que les logiciels de police prédictive ne parviennent pas à prédire les crimes, et relance le débat sur l'efficacité des algorithmes de prédiction de la criminalité
La police de New York a dépensé des millions pour les services d'une entreprise tech prétendant pouvoir utiliser l'IA pour surveiller les réseaux sociaux et prédire qui seront les futurs criminels
Les outils d'IA sont utilisés par la police qui « ne comprend pas comment ces technologies fonctionnent », selon une étude de l'Université d'État de Caroline du Nord
Vous avez un bloqueur de publicités installé.
Le Club Developpez.com n'affiche que des publicités IT, discrètes et non intrusives.
Afin que nous puissions continuer à vous fournir gratuitement du contenu de qualité, merci de nous soutenir en désactivant votre bloqueur de publicités sur Developpez.com.
Partager