2 pièce(s) jointe(s)
AI Act : les systèmes d'IA présentant un « risque inacceptable » sont désormais interdits dans l'UE
L'UE s'apprête à établir des règles en matière d'IA qui interdisent la surveillance et le classement du comportement social,
Les amendes pouvant atteindre 4 % du chiffre d'affaires
La surveillance de masse par les systèmes d’intelligence artificielle et le scoring continuent de faire l’objet de débat à travers le monde entier. Ce qui était l’objet d’une fiction dans l’épisode Nosedive de la série Black Mirror est en train de devenir une réalité dans certaines parties du monde, tandis que certains gouvernements cherchent à limiter les dégâts. Bruxelles s'apprête à imposer des limites strictes aux systèmes d'intelligence artificielle utilisés pour la surveillance de masse ou le classement du comportement social afin d'éviter des abus de la surveillance publique des citoyens européens. Les entreprises qui développent l'IA pourraient se voir infliger des amendes pouvant atteindre 4 % de leur chiffre d'affaires mondial si elles ne se conforment pas aux nouvelles règles régissant les applications logicielles.
Dans le domaine du marketing, le scoring est une technique qui permet d'affecter un score à un client ou prospect. Le score obtenu traduit généralement la probabilité qu'un individu réponde à une sollicitation marketing ou appartienne à la cible recherchée. Mais le scoring dont l’Union européenne veut faire face est une tout autre chose. L’idée ici est de collecter des centaines de données sur les individus et les entreprises à partir des réseaux sociaux et via les systèmes d’intelligence artificielle. Ces données seront ensuite passées au crible scrutant la légalité et la moralité d’un individu dans les domaines économiques, sociaux et politiques, avec pour but un score dont découleront des récompenses ou des sanctions.
Depuis 2018, la Chine a commencé à tester son projet de « système de crédit social » qui vise à mettre en place un système national pour noter ses citoyens. En effet, ce projet consiste à attribuer une note à chaque citoyen, fondée sur les données dont dispose le gouvernement sur les Chinois. Le système repose sur un outil de surveillance de masse et utilise les technologies d'analyse Big Data. Il permet aussi de noter les entreprises opérant sur le marché chinois.
Dès 2018, la liste noire du système de notation sociale chinois s'élargissait et impliquait plusieurs domaines. Alors que le système était prévu pour être pleinement opérationnel jusqu'en 2020, des millions de ressortissants chinois ont été empêchés de réserver des vols ou des trains depuis que ce système controversé a commencé à être testé dans certaines villes du pays. « Cela permettra aux personnes de confiance de circuler librement sous le ciel tout en entravant les personnes qui ne sont pas dignes de confiance dans leurs déplacements », expliquait le Parti communiste chinois. L’un des mauvais comportements pouvant faire baisser la note du crédit social des individus, c’est celui de passer d’un emploi à l’autre trop fréquemment. Des citoyens répertoriés pour ce comportement se voient infliger des sanctions.
L’UE veut éviter cela aux citoyens européens en interdisant les systèmes d'intelligence artificielle utilisés pour la surveillance de masse ou le classement des comportements sociaux. Les mesures à venir font partie de la législation qui doit être proposée par la Commission européenne, l'organe exécutif de l'Union européenne, selon un document de projet de nouvelles règles. Les nouvelles règles pourraient être dévoilées dès la semaine prochaine, et d’ici là, la Commission pourrait changer certains détails.
Les nouvelles règles sur l’intelligence artificielle
La proposition de la Commission européenne devrait inclure les règles suivantes :
- Les systèmes d'IA utilisés pour manipuler le comportement humain, exploiter des informations sur des individus ou des groupes d'individus, utilisés pour effectuer du scoring social ou pour une surveillance systématique seraient tous interdits dans l'UE. Certaines exceptions liées à la sécurité publique s'appliqueraient.
- Les systèmes d'identification biométrique à distance utilisés dans les lieux publics, comme la reconnaissance faciale, nécessiteraient une autorisation spéciale des autorités.
- Les applications d'IA considérées comme "à haut risque" devront être soumises à des inspections avant d'être déployées, afin de garantir que les systèmes sont formés sur des ensembles de données impartiaux, de manière traçable et avec une supervision humaine.
- L'IA à haut risque concernerait les systèmes susceptibles de mettre en danger la sécurité, la vie ou les droits fondamentaux des personnes, ainsi que les processus démocratiques de l'UE – comme les voitures à conduite autonome et la chirurgie à distance, entre autres.
- Certaines entreprises seront autorisées à procéder elles-mêmes à des évaluations, tandis que d'autres seront soumises à des contrôles effectués par des tiers. Les certificats de conformité délivrés par les organismes d'évaluation seront valables pour une durée de cinq ans.
- Les règles s'appliqueront de la même manière aux entreprises établies dans l'UE ou à l'étranger.
Les États membres de l'UE devront désigner des organismes d'évaluation chargés de tester, de certifier et d'inspecter les systèmes, d’après le projet de nouvelles règles. Les entreprises qui développent des services d'IA interdits, fournissent des informations incorrectes ou ne coopèrent pas avec les autorités nationales pourraient se voir infliger une amende pouvant atteindre 4 % de leur chiffre d'affaires mondial. Il y aura toutefois des exceptions. Les mesures ne s'appliqueront pas aux systèmes d'IA utilisés exclusivement à des fins militaires.
Des inquiétudes concernant l’utilisation des systèmes d’IA à des fins de classement des comportements sociaux ne datent pas de maintenant. Un groupe d'experts de haut niveau sur l'IA, réunis par l'Union européenne, a recommandé en 2018 l'interdiction d'utiliser l'IA pour le scoring des citoyens et la surveillance de masse. Le groupe, qui était composé d'un mélange d'experts de l'industrie de l'IA, de représentants de la société civile, de conseillers politiques, d'universitaires et d'experts juridiques, craint que les gouvernements, dans leur désir d'accroître la sécurité, poussent cette surveillance à des niveaux qu'ils qualifient de dangereux.
« Les gouvernements pourraient être tentés de sécuriser la société en construisant un système de surveillance généralisé basé sur des systèmes d'IA, mais cela serait extrêmement dangereux si on le poussait à des niveaux extrêmes. Les gouvernements devraient s’engager à ne pas participer à une surveillance massive des individus et à déployer et acquérir uniquement des systèmes d’IA fiables, conçus pour respecter la loi et les droits fondamentaux, alignés sur des principes éthiques et solides du point de vue sociotechnique », pouvait-on lire dans leur rapport.
Alors que l'intelligence artificielle a commencé à pénétrer dans chaque partie de la société, des suggestions d'achat et des assistants vocaux aux décisions concernant l'embauche, les assurances et l'application de la loi, l'UE veut s'assurer que la technologie déployée en Europe est transparente, bénéficie d'une supervision humaine et répond à ses normes élevées en matière de confidentialité des utilisateurs.
Les règles proposées interviennent alors que l'Union européenne tente de rattraper les États-Unis et la Chine dans le déploiement de l'intelligence artificielle et d'autres technologies avancées. Les nouvelles exigences pourraient empêcher les entreprises technologiques de la région de concurrencer leurs rivaux étrangers si elles tardent à dévoiler leurs produits parce qu'ils doivent d'abord être testés.
En janvier 2020, Bruxelles s’apprêtait également imposer des limites strictes à l'utilisation de la technologie de reconnaissance faciale dans les espaces publics afin d'éviter des abus de la surveillance publique des citoyens européens. L'objectif serait de limiter « l'utilisation aveugle de la technologie de reconnaissance faciale » par les entreprises et les pouvoirs publics. Selon le plan, les citoyens européens auraient le droit de « savoir quand les données [de reconnaissance faciale] sont utilisées », avec toutes les exceptions « strictement circonscrites » pour garantir une utilisation appropriée.
Mais au cours du même mois, la proposition de l'Union européenne a évolué, le groupe abandonnant la possibilité d’interdire l’utilisation dans l’espace public de technologies de reconnaissance faciale. À cette époque, les consultations sur le plan étaient en cours, la proposition pouvant être modifiée à nouveau.
Et vous ?
:fleche: Quel est votre avis sur ces futures règles sur l’IA de l’UE ?
:fleche: Que pensez-vous du classement des comportements sociaux par les gouvernements ?
Voir aussi :
:fleche: Pourquoi les systèmes de crédit social de la Chine sont étonnamment populaires ? Ils combleraient la « méfiance mutuelle entre les citoyens »
:fleche: Chine : les personnes qui changent d'emploi trop souvent pourraient être sanctionnées, par le système de crédit social
:fleche: Bruxelles pourrait interdire l'utilisation des technologies de reconnaissance faciale dans les espaces publics sur cinq ans, le temps de légiférer sur des moyens permettant de prévenir des abus
:fleche: L'UE devrait interdire le scoring des citoyens et la surveillance de masse à l'aide de l'IA, selon un groupe d'experts de haut niveau
2 pièce(s) jointe(s)
L'UE cherche à établir des normes mondiales pour l’IA, mais les défenseurs des droits civils s'inquiètent
L'UE cherche à établir des normes mondiales pour l'utilisation de l’IA,
Mais des groupes de défense des droits civils s'inquiètent
L’intelligence artificielle est une technologie considérée comme l'une des percées scientifiques les plus importantes, mais aussi les plus lourdes sur le plan éthique, de mémoire récente. « Pour l'excellence et la confiance dans l'intelligence artificielle », la Commission européenne a dévoilé mercredi une réglementation stricte pour régir l'utilisation de l’IA, une politique inédite qui décrit comment les entreprises et les gouvernements peuvent utiliser cette technologie. Les nouvelles règles comprennent l'interdiction de la plupart des formes de surveillance, et visent à établir des normes mondiales pour une technologie clé dominée par la Chine et les États-Unis. Les groupes de défense des droits civils mettent toutefois en garde contre les éventuelles lacunes de la proposition.
Présenté lors d'un point de presse à Bruxelles, le projet de règles fixerait des limites à l'utilisation de l'intelligence artificielle dans toute une série d'activités, des voitures autonomes aux décisions d'embauche, en passant par les sélections d'inscriptions dans les écoles et la notation des examens. Il couvrirait également l'utilisation de l'intelligence artificielle par les forces de l'ordre et les systèmes judiciaires – des domaines considérés comme "à haut risque", car ils pourraient menacer la sécurité des personnes ou leurs droits fondamentaux.
Toutefois, les groupes de défense des droits civils ont prévenu que les lacunes de la proposition, qui prévoit de lourdes amendes en cas de violation et fixe des garanties strictes pour les applications à haut risque, pourraient laisser place à des abus de la technologie par des gouvernements répressifs.
La Chine a pris de l’avance dans la course à l'IA, tandis que la pandémie de covid-19 a souligné l'importance des algorithmes et des gadgets connectés à Internet dans la vie quotidienne. Les technologues, les chefs d'entreprise et les responsables gouvernementaux considèrent l'intelligence artificielle, qui consiste à apprendre à des machines à effectuer des tâches par elles-mêmes en étudiant d'énormes volumes de données (Machine Learning), comme l'une des technologies les plus transformatrices au monde.
Mais à mesure que les systèmes deviennent plus sophistiqués, il peut être plus difficile de déterminer pourquoi la technologie prend une décision, un problème qui pourrait s'aggraver avec la puissance croissante des ordinateurs. Les chercheurs ont soulevé des questions éthiques concernant son utilisation, suggérant qu'elle pourrait perpétuer les préjugés existants dans la société, porter atteinte à la vie privée ou entraîner l'automatisation de davantage d'emplois.
« En matière d'intelligence artificielle, la confiance est un impératif, pas un luxe à avoir. Avec ces règles emblématiques, l'UE est le fer-de-lance de l'élaboration de nouvelles normes mondiales visant à garantir la fiabilité de l'IA », a déclaré Margrethe Vestager, la responsable européenne de la technologie dans un communiqué publié mercredi. « En fixant des normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier et veiller à ce que l'UE reste compétitive en cours de route. À l'épreuve du futur et favorables à l'innovation, nos règles interviendront là où cela est strictement nécessaire : lorsque la sécurité et les droits fondamentaux des citoyens de l'UE sont en jeu ».
Certaines utilisations seraient totalement interdites, notamment la reconnaissance faciale en direct dans les espaces publics, bien que certaines exemptions soient prévues pour des raisons de sécurité nationale et autres. La Commission a également déclaré que les applications d'IA qui permettent aux gouvernements de faire du scoring social ou d'exploiter des enfants seront interdites. Les applications d'IA à haut risque utilisées dans le recrutement, les infrastructures critiques, l'évaluation du crédit, la migration et l'application de la loi seront soumises à des garanties strictes.
Les entreprises qui enfreignent les règles s'exposent à des amendes pouvant atteindre 6 % de leur chiffre d'affaires mondial ou 30 millions d'euros (36 millions de dollars), le chiffre le plus élevé étant retenu. Le chef de l'industrie européenne, Thierry Breton, a déclaré que les règles visent à dissiper les mythes et les idées fausses sur l'IA.
« Derrière le terme d'intelligence artificielle, il y a des croyances populaires et des peurs qui ont longtemps été véhiculées par l'industrie cinématographique », a déclaré Thierry Breton lors d'une conférence de presse. « Il est vrai que le petit robot (personnage du film d'animation de Walt Disney) WALL-E n'a malheureusement pas pu nous faire oublier le T-800 (robot) de Terminator. Il faut donc naviguer entre tout cela et ne pas stigmatiser la technologie », a-t-il ajouté lors de la présentation du projet.
« La réglementation seule ne fera pas de l'UE un leader de l'IA », d’après un groupe de pression
Ces règles ont des conséquences considérables pour les grandes entreprises technologiques, dont Amazon, Google, Facebook et Microsoft, qui ont consacré des ressources énormes au développement de l'intelligence artificielle, mais aussi pour de nombreuses autres entreprises qui utilisent cette technologie dans les domaines de la santé, des assurances et de la finance. Les gouvernements ont utilisé des versions de cette technologie dans le domaine de la justice pénale et de la répartition des services publics.
« L'IA est un moyen, pas une fin. Elle existe depuis des décennies, mais a atteint de nouvelles capacités alimentées par la puissance de calcul. Cela offre un immense potentiel dans des domaines aussi divers que la santé, les transports, l'énergie, l'agriculture, le tourisme ou la cybersécurité. Elle présente également un certain nombre de risques. Les propositions présentées aujourd'hui visent à renforcer la position de l'Europe en tant que pôle d'excellence mondial en matière d'IA, du laboratoire au marché, à faire en sorte que l'IA en Europe respecte nos valeurs et nos règles, et à exploiter le potentiel de l'IA à des fins industrielles ».
Cependant, le groupe de pression technologique CCIA a déclaré que les règles ne devraient pas créer plus de paperasserie pour les entreprises et les utilisateurs. L'IA sera essentielle pour la reprise économique et la compétitivité future de l'Europe. Toutefois, la réglementation seule ne fera pas de l'UE un leader de l'IA », a déclaré Christian Borggreen, vice-président de la CCIA.
European Digital Rights a souligné des lacunes inquiétantes dans la proposition. « Le projet de loi n'interdit pas toute l'étendue des utilisations inacceptables de l'IA et en particulier toutes les formes de surveillance biométrique de masse. Cela laisse un vide inquiétant pour les technologies de discrimination et de surveillance utilisées par les gouvernements et les entreprises », a déclaré Sarah Chander du groupe de lobbying.
Patrick Breyer, législateur du parti des Verts au Parlement européen, s'est également montré cinglant à l'égard de la proposition. « Les technologies de surveillance biométrique et de masse, de profilage et de prédiction comportementale dans nos espaces publics portent atteinte à nos libertés et menacent nos sociétés ouvertes. Les exigences procédurales proposées ne sont qu'un simple écran de fumée », a-t-il déclaré.
Alors que l'intelligence artificielle a commencé à pénétrer dans chaque partie de la société, des suggestions d'achat et des assistants vocaux aux décisions concernant l'embauche, les assurances et l'application de la loi, l'UE veut s'assurer que la technologie déployée en Europe est transparente, bénéficie d'une supervision humaine et répond à ses normes élevées en matière de confidentialité des utilisateurs.
Les règles proposées interviennent alors que l'Union européenne tente de rattraper les États-Unis et la Chine dans le déploiement de l'intelligence artificielle et d'autres technologies avancées. Les nouvelles exigences pourraient empêcher les entreprises technologiques de la région de concurrencer leurs rivaux étrangers si elles tardent à dévoiler leurs produits parce qu'ils doivent d'abord passer au scanner de la nouvelle législation.
En introduisant ce projet de règles, cependant, l'Union européenne tente de s'imposer comme l'organisme de surveillance de l'industrie technologique le plus agressif au monde. L'Union a déjà adopté les réglementations les plus strictes au monde en matière de protection des données personnelles et débat actuellement de nouvelles lois antitrust et de modération des contenus.
La Commission devra néanmoins régler les détails avec les gouvernements nationaux de l'UE et le Parlement européen avant que les règles puissent entrer en vigueur. Cela pourrait prendre des années, marquées par un lobbying intense de la part des entreprises et même des gouvernements étrangers, a déclaré Patrick Van Eecke, associé et responsable de la cyberpratique européenne du cabinet d'avocats Cooley.
L’Europe n’est pas la seule région à vouloir réglementer l’utilisation de l’IA. À Washington aux États-Unis, les risques de l'intelligence artificielle sont également pris en compte. Cette semaine, la Federal Trade Commission a mis en garde contre la vente de systèmes d'intelligence artificielle qui utilisent des algorithmes à caractère raciste ou qui pourraient « refuser à des personnes un emploi, un logement, un crédit, une assurance ou d'autres avantages ».
Source : Communiqué de presse
Et vous ?
:fleche: Quel est votre avis sur le nouveau projet de règles sur l’utilisation de l’IA ?
:fleche: Partagez-vous les préoccupations des groupes de défense des droits civils qui ont prévenu que les lacunes de la proposition pourraient laisser place à des abus de la technologie ?
Voir aussi :
:fleche: L'UE s'apprête à établir des règles en matière d'IA qui interdisent la surveillance et le classement du comportement social, les amendes pouvant atteindre 4 % du chiffre d'affaires
:fleche: Bruxelles revoit sa position et décide d'abandonner l'idée d'interdire l'utilisation de la reconnaissance faciale dans les lieux publics
:fleche: Bruxelles pourrait interdire l'utilisation des technologies de reconnaissance faciale dans les espaces publics sur cinq ans, le temps de légiférer sur des moyens permettant de prévenir des abus
:fleche: L'UE devrait interdire le scoring des citoyens et la surveillance de masse à l'aide de l'IA, selon un groupe d'experts de haut niveau
2 pièce(s) jointe(s)
L'organisation européenne des consommateurs estime que la proposition de loi de l'Europe sur l'IA est faible
L'organisation européenne des consommateurs estime que la proposition de loi de l'Europe sur l'IA est faible,
en matière de protection des consommateurs
L'Union européenne a dévoilé mercredi des règles strictes visant à faire de l'Europe le centre mondial de l'intelligence artificielle (IA) digne de confiance. La combinaison du tout premier cadre juridique sur l'IA et d'un nouveau plan coordonné avec les États membres garantira la sécurité et les droits fondamentaux des personnes et des entreprises, tout en renforçant l'adoption de l'IA, les investissements et l'innovation dans toute l'UE. Certaines utilisations seraient totalement interdites, notamment la reconnaissance faciale en direct dans les espaces publics, bien qu'il y ait plusieurs exemptions pour des raisons de sécurité nationale et autres. Cependant, pour l'organisation européenne des consommateurs, la proposition de loi est faible en matière de protection des consommateurs.
Présenté lors d'un point de presse à Bruxelles, le projet de règles fixerait des limites à l'utilisation de l'intelligence artificielle dans toute une série d'activités, des voitures à conduite autonome aux décisions d'embauche, en passant par les prêts bancaires, les sélections d'inscriptions dans les écoles et la notation des examens. Elle couvrirait également l'utilisation de l'intelligence artificielle par les forces de l'ordre et les systèmes judiciaires ; des domaines considérés comme "à haut risque", car ils pourraient menacer la sécurité des personnes ou leurs droits fondamentaux.
Margrethe Vestager, vice-présidente exécutive pour une Europe adaptée à l'ère numérique, a déclaré : « En ce qui concerne l'intelligence artificielle, la confiance est une nécessité et non un luxe. Avec ces règles historiques, l'UE est le fer de lance de l'élaboration de nouvelles normes mondiales visant à garantir la fiabilité de l'IA. En fixant des normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier et veiller à ce que l'UE reste compétitive. À l'épreuve du futur et favorables à l'innovation, nos règles interviendront là où c'est strictement nécessaire : lorsque la sécurité et les droits fondamentaux des citoyens de l'UE sont en jeu ».
Le commissaire chargé du marché intérieur, Thierry Breton, a déclaré : « L'IA est un moyen, pas une fin. Elle existe depuis des décennies, mais a atteint de nouvelles capacités alimentées par la puissance de calcul. Cela offre un immense potentiel dans des domaines aussi divers que la santé, les transports, l'énergie, l'agriculture, le tourisme ou la cybersécurité. Elle présente également un certain nombre de risques. Les propositions présentées aujourd'hui visent à renforcer la position de l'Europe en tant que pôle d'excellence mondial en matière d'IA, du laboratoire au marché, à faire en sorte que l'IA en Europe respecte nos valeurs et nos règles, et à exploiter le potentiel de l'IA à des fins industrielles ». La réglementation de l'Union européenne obligerait les entreprises fournissant de l'intelligence artificielle dans des domaines à haut risque à fournir aux régulateurs des preuves de sa sécurité, notamment des évaluations des risques et des documents expliquant comment la technologie prend ses décisions. Les entreprises doivent également garantir une surveillance humaine de la manière dont les systèmes sont créés et utilisés.
En outre, le nouveau règlement sur les machines répondra aux besoins du marché en apportant une plus grande clarté juridique aux dispositions actuelles, en simplifiant la charge administrative et les coûts pour les entreprises en autorisant les formats numériques pour la documentation et en adaptant les frais d'évaluation de la conformité pour les PME, tout en assurant la cohérence avec le cadre législatif de l'UE pour les produits. Le Parlement européen et les États membres devront adopter les propositions de la Commission relatives à une approche européenne de l'intelligence artificielle et aux produits dérivés dans le cadre de la procédure législative ordinaire. Une fois adoptés, les règlements seront directement applicables dans toute l'UE. En parallèle, la Commission continuera à collaborer avec les États membres pour mettre en œuvre les actions annoncées dans le plan coordonné.
Cependant, certains analystes estiment que la proposition de loi européenne sur l'intelligence artificielle est faible en matière de protection des consommateurs. « La proposition ne répond pas aux attentes des groupes de consommateurs ni à l'objectif de l'UE de permettre une IA dans laquelle les gens peuvent avoir confiance. Les règles proposées sont axées sur un éventail très limité d'utilisations et de problèmes liés à l'IA. Elles ne protègent pas suffisamment les consommateurs, par exemple contre les éventuels dommages économiques causés par les produits et services d'IA. Il est essentiel de bien légiférer pour que l'IA profite à la fois à l'individu et à la société dans son ensemble. Le Parlement européen et les États membres doivent améliorer la proposition pour que cet objectif puisse être atteint », a indiqué l'organisation européenne des consommateurs sur son site Web.
Une enquête récente de l'organisation européenne montre que la majorité des consommateurs sont très préoccupés par l'utilisation de l'IA. La majorité des personnes interrogées ont reconnu que les entreprises utilisent l'IA pour manipuler les décisions des consommateurs. Plus de deux tiers des personnes interrogées ont déclaré que les utilisateurs devraient avoir le droit de dire "non" à la prise de décision automatisée.
Monique Goyens, directrice générale de l'organisation européenne des consommateurs, a déclaré : « Les produits et services alimentés par l'IA (des assistants vocaux aux bots de chat) entrent de plus en plus dans la vie des consommateurs. Pourtant, 43 % des personnes interrogées dans le cadre de notre enquête se sentent mal informées sur l'IA ou n'en ont jamais entendu parler. Et si les consommateurs pensent que l'IA peut apporter des avantages, ils disent aussi qu'elle ne les apporte pas encore. Ils sont également nombreux à exprimer de sérieuses inquiétudes, 50 % affirment que l'IA entraînera des discriminations.
« L'enquête montre que les organisations de consommateurs ont du pain sur la planche pour informer les consommateurs sur les applications d'IA utiles, sûres et conformes à la législation et sur la meilleure façon de les utiliser », ajoute-t-elle. Pour Monique Goyens, la Commission européenne aurait dû s'attacher davantage à aider les consommateurs à faire confiance à l'IA dans leur vie quotidienne. Par exemple, l'utilisation de l'intelligence artificielle et de la prise de décision automatisée ne doit pas entraîner de discrimination ni limiter l'autonomie et le choix des consommateurs.
Sources : Commission européenne, Organisation européenne des consommateurs
Et vous ?
:fleche: Que pensez-vous de cette proposition de loi de l'UE sur l'intelligence artificielle ?
:fleche: Êtes-vous d'avis avec l'organisation européenne des consommateurs que la loi est faible en matière de protection des consommateurs ?
:fleche: Pensez-vous que les consommateurs ne font pas assez confiance à l'intelligence artificielle ?
Voir aussi :
:fleche: L'UE cherche à établir des normes mondiales pour l'utilisation de l'IA, mais des groupes de défense des droits civils s'inquiètent
:fleche: L'UE s'apprête à établir des règles en matière d'IA qui interdisent la surveillance et le classement du comportement social, les amendes pouvant atteindre 4 % du chiffre d'affaires
:fleche: Les USA "ne sont pas prêts à se défendre ou à rivaliser à l'ère de l'IA", déclare un groupe d'experts présidé par Eric Schmidt, il avertit que l'IA ne restera pas dans le cadre de la science-fiction
:fleche: France : un décret autorise l'utilisation de caméras intelligentes pour mesurer le taux de port de masque dans les transports, dans le cadre de la lutte contre le coronavirus
1 pièce(s) jointe(s)
L'organisme européen de protection de la vie privée estime que la reconnaissance faciale doit être interdite
L'organisme européen de protection de la vie privée estime que la reconnaissance faciale devrait être interdite
en raison de son intrusion profonde et non démocratique dans la vie privée des gens
Alors que l'organisation européenne des consommateurs a déclaré il y a quelques jours que la proposition de loi de l'Europe sur l'IA est faible, l'organisme européen de protection de la vie privée monte à son tour au créneau en déclarant que l'utilisation de la technologie de reconnaissance faciale devrait être interdite. Ces commentaires interviennent deux jours après que la Commission européenne a proposé son projet de règles qui permettraient d'utiliser la reconnaissance faciale pour rechercher des enfants disparus ou des criminels et dans les cas d'attaques terroristes.
Il y a quelques jours, l'UE a révélé son intention d'établir des normes mondiales pour l'utilisation de l'IA. La Commission a dévoilé une réglementation stricte pour régir l'utilisation de l’IA, une politique inédite qui décrit comment les entreprises et les gouvernements peuvent utiliser cette technologie. Selon l'organisation, cela devrait permettre de promouvoir « l'excellence et la confiance dans l'IA ». Certaines utilisations seraient totalement interdites, notamment la reconnaissance faciale en direct dans les espaces publics, bien qu'il y ait plusieurs exemptions pour des raisons de sécurité nationale et autres.
Cependant, pour l'organisation européenne des consommateurs, la proposition de loi est faible en matière de protection des consommateurs. « La proposition ne répond pas aux attentes des groupes de consommateurs ni à l'objectif de l'UE de permettre une IA dans laquelle les gens peuvent avoir confiance. Les règles proposées sont axées sur un éventail très limité d'utilisations et de problèmes liés à l'IA. Elles ne protègent pas suffisamment les consommateurs, par exemple contre les éventuels dommages économiques causés par les produits et services d'IA », a indiqué l'organisation européenne des consommateurs sur son site Web.
« Il est essentiel de bien légiférer pour que l'IA profite à la fois à l'individu et à la société dans son ensemble. Le Parlement européen et les États membres doivent améliorer la proposition pour que cet objectif puisse être atteint », a-t-elle ajouté. Si l'organisation européenne des consommateurs sur son site Web statue sur l'ensemble des règles proposées, l'organisme européen de protection de la vie privée s'est attardé sur le volet consacré à la technologie de reconnaissance faciale. Pour lui, la reconnaissance faciale devrait être purement et simplement interdite. À en croire son communiqué, cela devrait l'être, peu importe le cas d'utilisation.
Selon le Contrôleur européen de la protection des données (CEPD), « La reconnaissance faciale devrait être interdite en Europe en raison de son intrusion profonde et non démocratique dans la vie privée des gens ». « Une approche plus stricte est nécessaire étant donné que l'identification biométrique à distance, où l'IA peut contribuer à des développements sans précédent, présente des risques extrêmement élevés d'intrusion profonde et non démocratique dans la vie privée des individus », a-t-il déclaré dans un communiqué.
Il a déclaré qu'il regrettait que la Commission n'ait pas tenu compte de sa demande antérieure d'interdire la reconnaissance faciale dans les espaces publics. « Le CEPD s'attachera en particulier à fixer des limites précises pour les outils et systèmes qui peuvent présenter des risques pour les droits fondamentaux à la protection des données et à la vie privée. Les propositions de la Commission ont suscité des critiques de la part des groupes de défense des droits civils, inquiets des failles qui pourraient permettre aux gouvernements autoritaires d'abuser de l'IA pour réprimer les droits des personnes.
Elles doivent être discutées avec les pays de l'UE et le Parlement européen. Plus en détail, le projet de règles fixerait des limites à l'utilisation de l'IA dans toute une série d'activités, des voitures à conduite autonome aux décisions d'embauche, en passant par les prêts bancaires, les sélections d'inscriptions dans les écoles et la notation des examens. Elle couvrirait également l'utilisation de l'IA par les forces de l'ordre et les systèmes judiciaires. Ces derniers domaines sont considérés par la Commission européenne comme des domaines "à haut risque", car ils pourraient menacer la sécurité des personnes ou leurs droits fondamentaux.
Margrethe Vestager, vice-présidente exécutive pour une Europe adaptée à l'ère numérique, a déclaré : « En ce qui concerne l'IA, la confiance est une nécessité et non un luxe. Avec ces règles historiques, l'UE est le fer de lance de l'élaboration de nouvelles normes mondiales visant à garantir la fiabilité de l'IA. En fixant des normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier et veiller à ce que l'UE reste compétitive. À l'épreuve du futur et favorables à l'innovation, nos règles interviendront là où c'est strictement nécessaire : lorsque la sécurité et les droits fondamentaux des citoyens de l'UE sont en jeu ».
La réglementation de l'UE obligerait les sociétés fournissant des solutions d'IA dans des domaines à haut risque à fournir aux régulateurs des preuves de sa sécurité, notamment des évaluations des risques et des documents expliquant comment la technologie prend ses décisions. Les entreprises doivent également garantir une surveillance humaine de la manière dont les systèmes sont créés et utilisés.
Source : Communiqué du CEPD
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Que pensez-vous du projet de règles de la Commission européenne ?
Voir aussi
:fleche: L'UE cherche à établir des normes mondiales pour l'utilisation de l'IA, mais des groupes de défense des droits civils s'inquiètent
:fleche: L'organisation européenne des consommateurs estime que la proposition de loi de l'Europe sur l'IA est faible, en matière de protection des consommateurs
:fleche: L'UE cherche à établir des normes mondiales pour l'utilisation de l'IA, mais des groupes de défense des droits civils s'inquiètent
:fleche: L'UE s'apprête à établir des règles en matière d'IA qui interdisent la surveillance et le classement du comportement social, les amendes pouvant atteindre 4 % du chiffre d'affaires
Qelles association de consommateurs ?
Bonjour,
plutôt que de focaliser sur la protection des données, ils feraient mieux de focaliser sur la légitimité des associations de consommateurs
En Belgique, il y a que Test-Achats ... les syndicats et les mutuelles.
Pour Test-Achats, il faut être abonné. Le forum est complètement pourri et les modérateurs ne permettent pas de s'exprimer librement car on est bloqué si l'on dit ce qu'on pense.
C'est véridique. Je suis moi-même bloqué en lecture; je peux lire mes messages mais mes messages sont écartés du moteur de recherche ainsi que de l'arborescence des communautés. Mes réponses sont toutes cachées pour les autres utilisateurs. C'est vraiment machiavélique.
En bref, ils ne défendent ni le consommateur, ni la démocratie, ni la liberté d'expression.
Quand on voit que les autres associations reprises dans le conseil consultatif spécial de la consommation sont les syndicats et les mutuelles, il y a vraiment de quoi se poser des questions !
En Belgique, ces associations ne représentent pas les consommateurs car aucune d'elles n'est à l'écoute des consommateurs.
Comment dans ces conditions peuvent-elles défendre pertinemment les intérêts des consommateurs que nous sommes.
Cordialement
3 pièce(s) jointe(s)
Les CNIL européennes s'expriment au sujet du projet de l'UE visant à réglementer l'IA
Les gendarmes européens des protections des données s'expriment au sujet du projet de l'UE
visant à réglementer l'IA
Le 21 avril 2021, la Commission européenne a présenté sa proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées en matière d'intelligence artificielle (ci-après « la proposition »). Une politique inédite qui décrit comment les entreprises et les gouvernements peuvent utiliser cette technologie. Les nouvelles règles comprennent l'interdiction de la plupart des formes de surveillance, et visent à établir des normes mondiales pour une technologie clé dominée par la Chine et les États-Unis.
La Chine a pris de l’avance dans la course à l'IA, tandis que la pandémie de covid-19 a souligné l'importance des algorithmes et de l'IdO dans la vie quotidienne. Les technologues, les chefs d'entreprise et les responsables gouvernementaux considèrent l'intelligence artificielle, qui consiste à apprendre à des machines à effectuer des tâches par elles-mêmes en étudiant d'énormes volumes de données (Machine Learning), comme l'une des technologies les plus transformatrices au monde.
Mais à mesure que les systèmes deviennent plus sophistiqués, il peut être plus difficile de déterminer pourquoi la technologie prend une décision, un problème qui pourrait s'aggraver avec la puissance croissante des ordinateurs. Les chercheurs ont soulevé des questions éthiques concernant son utilisation, suggérant qu'elle pourrait perpétuer les préjugés existants dans la société, porter atteinte à la vie privée ou entraîner l'automatisation de davantage d'emplois.
« En matière d'intelligence artificielle, la confiance est un impératif, pas un luxe à avoir. Avec ces règles emblématiques, l'UE est le fer-de-lance de l'élaboration de nouvelles normes mondiales visant à garantir la fiabilité de l'IA », a déclaré Margrethe Vestager, la responsable européenne de la technologie dans un communiqué publié mercredi. « En fixant des normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier et veiller à ce que l'UE reste compétitive en cours de route. À l'épreuve du futur et favorables à l'innovation, nos règles interviendront là où cela est strictement nécessaire : lorsque la sécurité et les droits fondamentaux des citoyens de l'UE sont en jeu ».
Certaines utilisations seraient totalement interdites, notamment la reconnaissance faciale en direct dans les espaces publics, bien que certaines exemptions soient prévues pour des raisons de sécurité nationale et autres. La Commission a également déclaré que les applications d'IA qui permettent aux gouvernements de faire du scoring social ou d'exploiter des enfants seront interdites. Les applications d'IA à haut risque utilisées dans le recrutement, les infrastructures critiques, l'évaluation du crédit, la migration et l'application de la loi seront soumises à des garanties strictes.
Les entreprises qui enfreignent les règles s'exposent à des amendes pouvant atteindre 6 % de leur chiffre d'affaires mondial ou 30 millions d'euros, le chiffre le plus élevé étant retenu. Le chef de l'industrie européenne, Thierry Breton, a déclaré que les règles visent à dissiper les mythes et les idées fausses sur l'IA.
« Derrière le terme d'intelligence artificielle, il y a des croyances populaires et des peurs qui ont longtemps été véhiculées par l'industrie cinématographique », a déclaré Thierry Breton lors d'une conférence de presse. « Il est vrai que le petit robot (personnage du film d'animation de Walt Disney) WALL-E n'a malheureusement pas pu nous faire oublier le T-800 (robot) de Terminator. Il faut donc naviguer entre tout cela et ne pas stigmatiser la technologie », a-t-il ajouté lors de la présentation du projet.
La réaction des gendarmes européens des données
Le Comité Européen de la Protection des Données et le Contrôleur européen de la protection des données se sont félicités de la préoccupation du législateur concernant l'utilisation de l'intelligence artificielle (IA) au sein de l'Union européenne (UE) et soulignent que la proposition a des implications particulièrement importantes en matière de protection des données.
Pour mémoire, le Comité européen de la Protection des Données est l'organe européen indépendant dont les objectifs sont de garantir l’application cohérente du Règlement Général sur la Protection des Données et de promouvoir la coopération entre les autorités de protection des données de l'Union européenne. Le Contrôleur européen de la protection des données quant à lui est une autorité de contrôle indépendante dépendant de l'Union européenne qui a pour mission première d’assurer que les institutions et organes européens respectent le droit à la vie privée et à la protection des données lorsqu’ils traitent des données à caractère personnel et élaborent de nouvelles politiques.
Les deux instances notent que :
« L’avènement des systèmes d’intelligence artificielle ("IA") est une étape très importante dans l’évolution des technologies et dans la manière dont les humains interagissent avec elles. L'IA est un ensemble de technologies clés qui vont profondément modifier notre quotidien, que ce soit d'un point de vue sociétal ou économique. Au cours des prochaines années, des décisions décisives sont attendues pour l'IA, car elle nous aide à surmonter certains des plus grands défis auxquels nous sommes confrontés aujourd'hui dans de nombreux domaines, allant de la santé à la mobilité, ou de l'administration publique à l'éducation.
« Cependant, ces avancées promises ne sont pas sans risques. En effet, les risques sont très pertinents étant donné que les effets individuels et sociétaux des systèmes d'IA sont, dans une large mesure, inexpérimentés. Générer du contenu, faire des prédictions ou prendre une décision de manière automatisée, comme le font les systèmes d'IA, au moyen de techniques d'apprentissage automatique ou de règles d'inférence logiques et probabilistes, n'est pas la même chose que les humains réalisant ces activités, au moyen d'un raisonnement créatif ou théorique, portant l'entière responsabilité des conséquences.
« L'IA augmentera le nombre de prédictions qui peuvent être faites dans de nombreux domaines à partir de corrélations mesurables entre des données, invisibles à l’œil humain, mais visibles aux machines, nous facilitant la vie et résolvant un grand nombre de problèmes, mais en même temps érodera notre capacité à donner une interprétation causale des résultats, de telle sorte que les notions de transparence, de contrôle humain et de responsabilité sur les résultats soient sérieusement remises en question.
« Les données (personnelles et non personnelles) dans l'IA sont dans de nombreux cas la prémisse clé pour des décisions autonomes, qui affecteront inévitablement la vie des individus à différents niveaux. C'est pourquoi le Comité Européen de la Protection des Données et le Contrôleur européen de la protection des données, déjà à ce stade, affirment fermement que la proposition de règlement établissant des règles harmonisées en matière d'intelligence artificielle (loi sur l'intelligence artificielle) a des implications importantes en matière de protection des données ».
Les deux instances ont souligné « la nécessité de tracer des lignes rouges aux futurs usages de l’IA ». Elles ont demandé que les exceptions prévues à l’interdiction de l'identification biométrique à distance des personnes dans les espaces publics soient tout simplement retirées : « L'identification biométrique à distance des individus dans les espaces accessibles au public présente un risque élevé d'intrusion dans la vie privée des individus, avec de graves effets sur l'attente des populations d'être anonymes dans les espaces publics. Pour ces raisons, les deux instances appellent à une interdiction générale de toute utilisation de l'IA pour une reconnaissance automatisée des caractéristiques humaines dans des espaces accessibles au public – tels que les visages, mais aussi la démarche, les empreintes digitales, l'ADN, la voix, les frappes et autres éléments biométriques ou des signaux comportementaux – dans n'importe quel contexte ».
Juste après, les instances recommandent également d'interdire l'utilisation des systèmes biométriques « utilisés aux fins de classer les individus dans des groupes basés sur l'ethnicité supposée, le sexe, l'orientation politique ou sexuelle, ou d'autres motifs pour lesquels la discrimination est interdite ».
Les systèmes utilisés pour la notation sociale qui « doivent être systématiquement interdits » : « Compte tenu du grand risque de discrimination, la Proposition interdit le "scoring social" lorsqu'il est effectué "sur une certaine période de temps" ou "par les autorités publiques ou en leur nom". Cependant, les entreprises privées, telles que les médias sociaux et les fournisseurs de services cloud, peuvent également traiter de grandes quantités de données personnelles et effectuer un scoring social. Par conséquent, le futur règlement IA devrait interdire tout type de scoring social »
Conclusion
Les règles proposées interviennent alors que l'Union européenne tente de rattraper les États-Unis et la Chine dans le déploiement de l'intelligence artificielle et d'autres technologies avancées. Les nouvelles exigences pourraient empêcher les entreprises technologiques de la région de concurrencer leurs rivaux étrangers si elles tardent à dévoiler leurs produits parce qu'ils doivent d'abord passer au scanner de la nouvelle législation.
En introduisant ce projet de règles, cependant, l'Union européenne tente de s'imposer comme l'organisme de surveillance de l'industrie technologique le plus agressif au monde. L'Union a déjà adopté les réglementations les plus strictes au monde en matière de protection des données personnelles et débat actuellement de nouvelles lois antitrust et de modération des contenus.
La Commission devra néanmoins régler les détails avec les gouvernements nationaux de l'UE et le Parlement européen avant que les règles puissent entrer en vigueur. Cela pourrait prendre des années, marquées par un lobbying intense de la part des entreprises et même des gouvernements étrangers, a déclaré Patrick Van Eecke, associé et responsable de la cyberpratique européenne du cabinet d'avocats Cooley.
L’Europe n’est pas la seule région à vouloir réglementer l’utilisation de l’IA. À Washington aux États-Unis, les risques de l'intelligence artificielle sont également pris en compte. Cette semaine, la Federal Trade Commission a mis en garde contre la vente de systèmes d'intelligence artificielle qui utilisent des algorithmes à caractère raciste ou qui pourraient « refuser à des personnes un emploi, un logement, un crédit, une assurance ou d'autres avantages ».
Source : CNIL européennes
Voir aussi :
:fleche: Pourquoi les systèmes de crédit social de la Chine sont étonnamment populaires ? Ils combleraient la « méfiance mutuelle entre les citoyens »
:fleche: Chine : les personnes qui changent d'emploi trop souvent pourraient être sanctionnées, par le système de crédit social
:fleche: Bruxelles pourrait interdire l'utilisation des technologies de reconnaissance faciale dans les espaces publics sur cinq ans, le temps de légiférer sur des moyens permettant de prévenir des abus
:fleche: L'UE devrait interdire le scoring des citoyens et la surveillance de masse à l'aide de l'IA, selon un groupe d'experts de haut niveau
3 pièce(s) jointe(s)
Le Parlement européen a voté en faveur d'une interdiction totale de la surveillance biométrique de masse
Le Parlement européen a voté en faveur d'une interdiction totale de la surveillance biométrique de masse
par les forces de l'ordre
Les technologies de surveillance à distance basées sur l'IA, telles que la reconnaissance faciale, ont d'énormes implications pour les droits et libertés fondamentaux tels que la vie privée, mais elles sont déjà de plus en plus utilisées dans le public en Europe. Pour respecter « la vie privée et la dignité humaine », les députés ont déclaré que les législateurs européens devraient interdire de manière permanente la reconnaissance automatisée des personnes dans les espaces publics, affirmant que les citoyens ne devraient être surveillés que lorsqu'ils sont soupçonnés d'un crime. Le parlement a également appelé à l'interdiction d'utiliser des bases de données privées de reconnaissance faciale – comme le système d'IA controversé créé par la startup américaine Clearview (également déjà utilisé par certaines forces de police en Europe) – et a déclaré qu'une police prédictive basée sur des données comportementales devrait également être interdite. Les députés souhaitent également interdire les systèmes de notation sociale qui cherchent à évaluer la fiabilité des citoyens en fonction de leur comportement ou de leur personnalité.
L’IA est l’une des priorités principales de l’actuelle Commission. La présidente de la Commission, Ursula von der Leyen, a annoncé dans ses orientations politiques une approche européenne coordonnée relative aux implications humaines et éthiques de l’IA, ainsi qu’une réflexion sur une meilleure utilisation des mégadonnées pour promouvoir l’innovation. La reconnaissance de l’IA en tant que dossier à traiter au niveau de l’UE a été accompagnée d’une réflexion sur la manière de garantir la confiance dans les technologies de l’IA et sur la manière de veiller à ce que l’IA ne compromette pas les droits fondamentaux au sein de l’UE.
Il faut noter que le Parlement européen s’est penché sur l’IA plusieurs années avant que la Commission ne décide d’en faire une priorité de premier plan. Plusieurs résolutions sur les mégadonnées, la robotique et l’intelligence artificielle, adoptées par le Parlement depuis 2016, montrent l’importance qu’il accorde à ce sujet. Les résolutions ont porté sur différentes incidences de l’IA et sur la façon dont elle influence le bien-être, l’éducation, la technologie, les droits légaux et fondamentaux, ainsi que l’activité économique dans son ensemble. Ces résolutions ont souligné la nécessité d’adopter une approche « centrée sur l’humain », fondée sur le respect des droits fondamentaux, à savoir la charte de l’UE et le cadre de l’UE en matière de protection des données.
L’IA offre de grandes possibilités également dans le domaine des services répressifs et de la justice pénale, notamment pour améliorer les méthodes de travail des services répressifs et des autorités judiciaires, et pour lutter plus efficacement contre certains types de criminalité, en particulier la criminalité financière, le blanchiment de capitaux et le financement du terrorisme, ainsi que certains types de cybercriminalité. Dans ce secteur, les applications d’IA comprennent notamment les technologies de reconnaissance faciale, la reconnaissance automatique des plaques minéralogiques, l’identification des orateurs, l’identification de la parole, les technologies de lecture sur les lèvres, la surveillance auditive (les algorithmes de détection des coups de feu), la recherche et l’analyse autonomes des bases de données identifiées, les prévisions (police prédictive et analyse des foyers de criminalité), les outils de détection des comportements, les outils autonomes permettant de détecter la fraude financière et le financement du terrorisme, le suivi des médias sociaux (moissonnage et collecte de données pour l’exploration des connexions), les intercepteurs d’IMSI (IMSI-catchers), et les systèmes de surveillance automatique qui comportent différentes possibilités de détection (telles que la détection des battements du cœur et les caméras thermiques). Dans le domaine judiciaire, les outils d’IA peuvent être utilisés pour calculer les probabilités de récidive et pour déterminer la probation ou décider de la peine.
En dépit des avantages apportés par l’IA, le fait est que, parallèlement, l’IA comporte un certain nombre de risques potentiels, tels que l’opacité de la prise de décision, différents types de discrimination, l’intrusion dans notre vie privée, les défis en matière de protection des données à caractère personnel, de la dignité humaine et de la liberté d’expression et d’information. Ces risques potentiels sont aggravés dans le secteur de la répression et de la justice pénale, dans la mesure où ils peuvent porter atteinte à la présomption d’innocence, aux droits fondamentaux à la liberté et à la sûreté de la personne et au droit à un recours effectif et à un procès équitable.
L'établissement de normes
C'est pourquoi en avril, l'exécutif de l'UE a présenté un projet de loi visant à réglementer les utilisations à haut risque de la technologie de l'intelligence artificielle, notamment dans l'utilisation par les forces de l'ordre et les systèmes judiciaires. Des domaines estimés comme étant à haut risque, car ils pourraient menacer la sécurité des personnes ou leurs droits fondamentaux.
Bruxelles a précisé que certaines utilisations seraient totalement interdites, notamment la reconnaissance faciale en direct dans les espaces publics, bien que certaines exemptions soient prévues pour des raisons de sécurité nationale et autres. La Commission a également déclaré que les applications d'IA qui permettent aux gouvernements de faire de la notation sociale ou d'exploiter des enfants seront interdites. Les applications d'IA à haut risque utilisées dans le recrutement, les infrastructures critiques, l'évaluation du crédit, la migration et l'application de la loi seront soumises à des garanties strictes.
Margrethe Vestager, vice-présidente exécutive pour une Europe adaptée à l'ère numérique, a déclaré : « En ce qui concerne l'intelligence artificielle, la confiance est une nécessité et non un luxe. Avec ces règles historiques, l'UE est le fer de lance de l'élaboration de nouvelles normes mondiales visant à garantir la fiabilité de l'IA. En fixant des normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier et veiller à ce que l'UE reste compétitive. À l'épreuve du futur et favorables à l'innovation, nos règles interviendront là où c'est strictement nécessaire : lorsque la sécurité et les droits fondamentaux des citoyens de l'UE sont en jeu ».
Une proposition insuffisante
Toutefois, la société civile, le comité européen de la protection des données et le contrôleur européen de la protection des données et un certain nombre de députés européens ont rapidement averti que la proposition de la Commission n'allait pas assez loin.
European Digital Rights a souligné des lacunes inquiétantes dans la proposition. « Le projet de loi n'interdit pas toute l'étendue des utilisations inacceptables de l'IA et en particulier toutes les formes de surveillance biométrique de masse. Cela laisse un vide inquiétant pour les technologies de discrimination et de surveillance utilisées par les gouvernements et les entreprises », a déclaré Sarah Chander du groupe de lobbying.
Patrick Breyer, législateur du parti des Verts au Parlement européen, s'est également montré cinglant à l'égard de la proposition. « Les technologies de surveillance biométrique et de masse, de profilage et de prédiction comportementale dans nos espaces publics portent atteinte à nos libertés et menacent nos sociétés ouvertes. Les exigences procédurales proposées ne sont qu'un simple écran de fumée », a-t-il déclaré.
« La proposition ne répond pas aux attentes des groupes de consommateurs ni à l'objectif de l'UE de permettre une IA dans laquelle les gens peuvent avoir confiance. Les règles proposées sont axées sur un éventail très limité d'utilisations et de problèmes liés à l'IA. Elles ne protègent pas suffisamment les consommateurs, par exemple contre les éventuels dommages économiques causés par les produits et services d'IA. Il est essentiel de bien légiférer pour que l'IA profite à la fois à l'individu et à la société dans son ensemble. Le Parlement européen et les États membres doivent améliorer la proposition pour que cet objectif puisse être atteint », a indiqué l'organisation européenne des consommateurs sur son site Web.
Une enquête récente de l'organisation européenne montre que la majorité des consommateurs sont très préoccupés par l'utilisation de l'IA. La majorité des personnes interrogées ont reconnu que les entreprises utilisent l'IA pour manipuler les décisions des consommateurs. Plus de deux tiers des personnes interrogées ont déclaré que les utilisateurs devraient avoir le droit de dire "non" à la prise de décision automatisée.
Le Parlement réagit
Le Parlement a indiqué qu'il souhaitait également des garanties plus solides pour les droits fondamentaux.
Dans une résolution, le parlement a voté 377:248 en faveur du rapport de la commission LIBE sur l'intelligence artificielle dans le droit pénal. Les parlementaires ont envoyé un signal fort sur ce qu'ils accepteront dans les prochaines négociations entre les institutions européennes qui détermineront les détails de la loi sur l'intelligence artificielle.
Le paragraphe pertinent sur la surveillance biométrique à distance invite la Commission à :
« …mettre en œuvre, par des moyens législatifs et non législatifs, et si nécessaire par des procédures d'infraction, une interdiction de tout traitement de données biométriques, y compris les images faciales, à des fins répressives qui conduit à une surveillance de masse dans des espaces accessibles au public ; demande en outre à la Commission de cesser de financer la recherche ou le déploiement biométrique ou des programmes susceptibles d'entraîner une surveillance de masse aveugle dans les espaces publics ».
La résolution vise également le biais algorithmique, appelant à une surveillance humaine et à de solides pouvoirs juridiques pour empêcher la discrimination par l'IA (en particulier dans un contexte d'application de la loi et de franchissement des frontières).
Les opérateurs humains doivent toujours prendre les décisions finales, ont convenu les députés, affirmant que les sujets surveillés par des systèmes alimentés par l'IA doivent avoir accès à des recours.
Pour garantir le respect des droits fondamentaux lors de l'utilisation de systèmes d'identification basés sur l'IA (dont les députés ont noté qu'il s'est avéré mal identifier les groupes ethniques minoritaires, les personnes LGBTI, les personnes âgées et les femmes à des taux plus élevés) les algorithmes devraient être transparents, traçables et suffisamment documentés, ont-ils également déclaré.
Ils ont également appelé les pouvoirs publics à utiliser des logiciels open source afin d'être plus transparents, dans la mesure du possible.
Les députés ont également ciblé un projet de recherche controversé financé par l'UE (pour créer un détecteur de mensonges « intelligent » basé sur l'analyse des expressions faciales) en disant que le projet iBorderCtrl devrait être interrompu.
Commentant dans une déclaration, le rapporteur Petar Vitanov (S&D, BG) a déclaré : « Les droits fondamentaux sont inconditionnels. Pour la première fois, nous appelons à un moratoire sur le déploiement de systèmes de reconnaissance faciale à des fins répressives, car la technologie s'est avérée inefficace et conduit souvent à des résultats discriminatoires. Nous sommes clairement opposés à la police prédictive basée sur l'utilisation de l'IA ainsi qu'à tout traitement de données biométriques conduisant à une surveillance de masse. C'est une énorme victoire pour tous les citoyens européens ».
La résolution du Parlement appelle également à l'interdiction de l'IA aidant les décisions judiciaires (un autre domaine très controversé où l'automatisation est déjà appliquée, avec le risque que l'automatisation cimente et amplifie les biais systémiques dans les systèmes de justice pénale).
L'organisation caritative mondiale des droits de l'homme, Fair Trials, a salué le vote, le qualifiant de « résultat historique pour les droits fondamentaux et la non-discrimination à l'ère technologique ».
Source : communiqué de presse du Parlement
Et vous ?
:fleche: Que pensez-vous de cette décision du Parlement ?
Voir aussi :
:fleche: Pourquoi les systèmes de crédit social de la Chine sont-ils étonnamment populaires ? Ils combleraient la « méfiance mutuelle entre les citoyens »
:fleche: Chine : les personnes qui changent d'emploi trop souvent pourraient être sanctionnées, par le système de crédit social
:fleche: Bruxelles pourrait interdire l'utilisation des technologies de reconnaissance faciale dans les espaces publics sur cinq ans, le temps de légiférer sur des moyens permettant de prévenir des abus.
:fleche: L'UE devrait interdire le scoring des citoyens et la surveillance de masse à l'aide de l'IA, selon un groupe d'experts de haut niveau
En complément à cet article : point de vue de la quadrature du net