Le droit de ne pas être soumis au profilage par l'IA basé sur des données publiquement disponibles sans consentement éclairé explicite, car le règlement RGPD de l'UE ne garantit pas ce droit.

Dans un article, il est soutenu que les individus devraient avoir un droit sui generis de ne pas être soumis à un profilage par IA basé sur des données accessibles au public sans leur consentement explicite et éclairé.

Les données des médias sociaux offrent un potentiel considérable pour prédire les conditions liées à la santé. Des études récentes suggèrent que des modèles d'apprentissage automatique peuvent prédire avec précision la dépression et d'autres problèmes de santé mentale à partir de photos Instagram et de tweets.

Un article a étayé le droit de ne pas être soumis à un profilage d'IA basé sur des données accessibles au public. Ce droit implique qu'un tel profilage ne peut être effectué sans le consentement explicite et informé du sujet profilé. L'article développe trois arguments fondamentaux en faveur d'un droit à la protection des données à caractère personnel reposant sur les notions de contrôle social et de stigmatisation.

Il affirme qu'un certain nombre de caractéristiques du profilage par IA rendent les individus plus exposés au contrôle social et à la stigmatisation que d'autres types de traitement de données (l'exceptionnalité du profilage par IA). L'article examine également une série d'autres arguments pour et contre la protection des individus contre le profilage par IA basé sur des données accessibles au public.

Enfin, il y est affirmé que le règlement général sur la protection des données de l'UE (RGPD) ne garantit pas que les individus ont le droit de ne pas faire l'objet d'un profilage par IA basé sur des données accessibles au public. Mais l'argumentation développée dans l'article soulève plusieurs questions qui méritent d'être approfondies.

Nom : 1.jpg
Affichages : 34115
Taille : 63,6 Ko

Pourquoi un droit ?

Même si l'on reconnaît la gravité des préjudices potentiels du profilage de l'IA, la question de savoir si ces préjudices doivent être traités par le biais d'un droit ou d'un autre type de réglementation interdisant ce profilage d'une manière ou d'une autre peut encore être considérée comme ouverte. Le droit de ne pas faire l'objet d'un profilage d'IA sans consentement éclairé peut être considéré comme découlant du droit d'un individu à protéger ses intérêts et son droit à se protéger contre les préjudices.

Il convient toutefois de noter qu'un tel droit démocratise en quelque sorte la réglementation. Il ne limite pas la réglementation de l'IA à des institutions et des professions désignées, dotées de la compétence et de l'obligation de surveiller et de contrôler le développement et l'utilisation de l'IA, mais il donne à chaque individu un instrument de contrôle de l'utilisation de l'IA. Ce faisant, un droit peut accroître l'efficacité de la réglementation par rapport à d'autres types de réglementation. Cet argument ne peut être pleinement développé dans un simple article, mais il devrait être exploré dans des travaux futurs.

Pourquoi un droit pro tanto ?

Dans l'article, le droit de ne pas faire l'objet d'un profilage par IA a été suggéré comme un droit conditionnel. Pourtant, les exemptions potentielles à ce droit n'ont pas été précisées. Au contraire, il a été avancé que certaines des exceptions évidentes, par exemple la liberté d'expression et d'information, ne constituent pas des exceptions raisonnables. Cette question mérite également d'être approfondie.

La raison de ce choix est double. Dans l'article, les auteurs n'ont à aucun moment soutenu qu'il n'y avait pas d'exceptions à ce droit. Par ailleurs, il semble qu'il soit toujours possible de concevoir des situations constituant des exceptions à ces droits. Par exemple, les menaces pour la sécurité nationale ou les menaces terroristes pourraient être des candidats à l'élaboration de telles exemptions.

Pourquoi le consentement éclairé ?

Le droit de ne pas faire l'objet d'un profil d'IA peut être abandonné par le biais d'un consentement éclairé. Certains objecteront que le consentement éclairé au traitement des données est très routinier, c'est-à-dire qu'il s'agit d'un acte habituel et non réfléchi, et que le droit de ne pas faire l'objet d'un profilage par l'IA peut par conséquent ne pas avoir de réel pouvoir de protection des personnes. La mesure dans laquelle les problèmes de routinisation peuvent être surmontés grâce à une conception minutieuse de la situation de consentement est une question qui devra faire l'objet de travaux (empiriques) futurs.

La position adoptée dans l'article est que l'évaluation des avantages et des inconvénients potentiels du profilage par l'IA ne peut se faire de manière adéquate sur le plan éthique sans la participation des personnes susceptibles d'être profilées. La légitimité de soumettre des individus au profilage par l'IA découle au moins en partie de leur implication dans la décision de procéder au profilage. À ce titre, le consentement éclairé est tout simplement nécessaire d'un point de vue éthique.

L'exigence de consentement éclairé peut ne pas suffire à protéger les individus des inconvénients potentiels du profilage par l'IA. D'autres types de réglementation protégeant les individus contre de tels préjudices peuvent certainement être nécessaires. Notamment, comme certains l'ont affirmé, parce que l'obligation de consentement éclairé peut constituer un fardeau pour les individus.

Conclusion

Dans le cadre de la justification d'un droit sui generis à ne pas être profilé par l'IA sur la base de données accessibles au public, l'article suggère plusieurs mécanismes et modèles comportementaux qui sous-tendent le contrôle social et la stigmatisation, et fourni des preuves pertinentes dans la mesure des possibilités. D'autres études empiriques sur ces questions sont nécessaires. Il convient toutefois de noter qu'en tentant de fonder ces arguments sur des modèles et mécanismes comportementaux réels, l'article constitue une contribution à l'élaboration de politiques fondées sur des données probantes dans le domaine du droit à la vie privée.

Source : "The Right Not to Be Subjected to AI Profiling Based on Publicly Available Data—Privacy and the Exceptionalism of AI Profiling"

Et vous ?

Pensez-vous que cet article de recherche est crédible ou pertinent ?
Quel est votre avis sur le sujet ?

Voir aussi :

L'ONU avertit que l'IA peut menacer les droits de l'homme, le rapport met en garde contre l'utilisation de l'IA en tant qu'outil de prévision et de profilage

Les législateurs européens adoptent la première loi importante pour réglementer l'IA dans le monde, mais elle pourrait potentiellement rendre le marché européen peu attrayant pour l'IA

Meta prévoit d'utiliser vos données personnelles pour entraîner ses modèles d'IA sans demander de consentement, mais le groupe de défense NOYB demande aux autorités de l'Europe d'y mettre un terme