Les développeurs d'IA peuvent-ils être tenus pour responsables en cas de négligence ?
Bryan H. Choi estime que les approches actuelles de réglementation permettent aux ingénieurs de l'IA de se dissocier des préjudices qu'ils infligent à autrui
Avec l’essor rapide de l’intelligence artificielle (IA), une question cruciale émerge : les développeurs d’IA peuvent-ils être tenus responsables de la négligence? C'est la problématique qu'aborde Bryan H. Choi, professeur associé de droit et d'informatique et d'ingénierie à l'université de l'État de l'Ohio, qui note que les approches les plus populaires en matière de sécurité et de responsabilité de l'IA se sont concentrées sur les caractéristiques et les risques technologiques des systèmes d'IA, tout en détournant l'attention des travailleurs responsables de la conception, de la mise en œuvre, des essais et de l'entretien de ces systèmes.
Des approches qui permettent aux ingénieurs de l'IA de se dissocier des préjudices qu'ils infligent à autrui.
Bryan H. Choi note qu'à ce jour, les approches les plus populaires en matière de sécurité et de responsabilité de l'IA se sont concentrées sur les caractéristiques et les risques technologiques des systèmes d'IA, tout en détournant l'attention des travailleurs responsables de la conception, de la mise en œuvre, des essais et de l'entretien de ces systèmes.
Des initiatives telles que la loi européenne sur l'IA illustrent cette approche, en ce sens qu'elles conditionnent la surveillance réglementaire à des attributs techniques tels que la quantité de calcul utilisée pour l'entraînement ou la mise au point d'un modèle d'IA. De même, le cadre de la responsabilité du fait des produits pour l'IA pointe du doigt les caractéristiques dangereuses des produits et minimise le comportement des décideurs humains.
D'autres propositions, telles que la responsabilité stricte ou les analogies entre l'IA « sensible » et les enfants ou les animaux sauvages, évitent également de s'engager dans les processus humains par lesquels l'IA est fabriquée.
Cette approche technologique permet aux ingénieurs de l'IA de se dissocier des préjudices qu'ils infligent à autrui.
« J'ai déjà affirmé qu'une approche fondée sur la négligence était nécessaire, car elle oriente le contrôle juridique vers les personnes réellement responsables de la création et de la gestion des systèmes d'IA. Le projet de loi californien sur la sécurité de l'IA constitue un pas dans cette direction. Il précise que les développeurs d'IA doivent élaborer et mettre en œuvre des protocoles qui incarnent "l'obligation du développeur de prendre des précautions raisonnables pour éviter de produire un modèle couvert ou un dérivé de modèle couvert qui présente un risque déraisonnable de causer ou de permettre matériellement un dommage critique" (c'est nous qui soulignons) ».
Bien que les leaders de la technologie se soient opposés au projet de loi californien, les tribunaux n'ont pas besoin d'attendre une législation pour autoriser les plaintes pour négligence contre les développeurs d'IA. Mais comment la négligence fonctionnerait-elle dans le contexte de l'IA, et quels effets en aval les développeurs d'IA devraient-ils anticiper ?
La négligence et l’IA : un cadre juridique
La négligence est une théorie de la responsabilité délictuelle qui oblige les individus à agir avec une diligence raisonnable. Si un manquement à cette diligence cause un préjudice à autrui, la personne fautive peut être tenue responsable et condamnée à des dommages-intérêts compensatoires et punitifs. Dans le contexte de l’IA, cela signifie que les développeurs pourraient être tenus responsables si leur manque de soin dans la conception, le développement ou la maintenance des systèmes d’IA cause des dommages.
Les éléments de la négligence
Pour prouver la négligence, quatre éléments doivent être établis : l'obligation, la violation, la cause factuelle et proximale, et le préjudice. Ces éléments sont essentiels pour déterminer si les développeurs d’IA ont manqué à leur devoir de diligence. La négligence étant une créature de la common law des États, la manière dont ces éléments sont énoncés, interprétés et appliqués dans les différents cas peut varier d'un État à l'autre. Cela dit, l'essentiel de la négligence reste le même : une négligence injustifiée.
Le manque de diligence
« Quel degré de diligence est "suffisant" pour éviter la responsabilité ? L'attente habituelle par défaut est la "diligence raisonnable", ou ce qu'une "personne raisonnablement prudente" aurait fait. En règle générale, c'est un jury de pairs qui décide de ce qui est raisonnable. Par ailleurs, dans certaines situations bien définies - par exemple, les lois sur la sécurité routière -, le législateur ou l'agence peut énoncer des violations de la loi qui servent de preuve per se du caractère déraisonnable, ou de "négligence per se". Dans des circonstances particulières, une norme de diligence différente peut être substituée, telle que la diligence maximale, la diligence habituelle ou la négligence grave (absence de diligence, même légère).
« La norme du caractère raisonnable est une norme objective qui impose à toutes les personnes se trouvant dans une situation similaire la même attente en matière de soins. Il s'agit d'un changement moderne qui consiste à passer d'une conception du devoir de diligence comme étant simplement la diligence ordinaire (comment les gens se comportent habituellement) à une conception normative de la diligence raisonnable (comment les gens devraient se comporter).
« Par exemple, tous les conducteurs sont jugés de la même manière, qu'il s'agisse de pilotes de course professionnels ou d'adolescents qui viennent d'obtenir leur permis de conduire. De même, tout modélisateur d'IA - de l'amateur non rémunéré à l'expert rémunéré - est censé connaître tous les concepts qu'un modélisateur d'IA raisonnablement prudent devrait connaître. Invoquer l'ignorance d'une technique couramment utilisée ne serait pas une excuse valable. Il ne suffit pas non plus de se conformer aux normes de l'industrie, si l'ensemble de l'industrie est à la traîne par rapport aux niveaux de précaution acceptables. Dans le même temps, on n'attend pas d'un modélisateur d'IA raisonnable qu'il intègre des recherches de pointe, en particulier lorsqu'elles ne sont pas bien établies dans la pratique.
« Le caractère raisonnable est également une norme flexible qui prend en compte des informations contextuelles sur les connaissances et les compétences d'une catégorie de personnes se trouvant dans une situation similaire. Ainsi, on peut s'attendre à ce qu'un modélisateur d'IA ait l'équivalent d'un doctorat en apprentissage automatique, alors qu'un analyste de données qui nettoie les données d'entraînement peut être comparé à un diplômé de l'enseignement secondaire ou supérieur. D'autres facteurs contextuels influençant la détermination de la diligence raisonnable peuvent inclure le type de modèle ou de système d'IA, le domaine d'application et les conditions du marché. Par exemple, la diligence raisonnable pour les systèmes de véhicules autonomes peut être très différente de la diligence raisonnable pour les grands modèles de langage, et ainsi de suite ».
Les défis de la responsabilité des développeurs d’IA
- Complexité technique : les systèmes d’IA sont souvent complexes et opaques, ce qui rend difficile l’identification des erreurs humaines spécifiques qui ont conduit à un dysfonctionnement. Par exemple, un algorithme de machine learning peut prendre des décisions basées sur des milliers de variables, rendant l’analyse des causes d’un échec particulièrement ardue.
- Partage de responsabilité : la création d’un système d’IA implique souvent plusieurs parties, y compris les développeurs, les entreprises, et les utilisateurs finaux. Déterminer qui est responsable peut être compliqué. Par exemple, si un véhicule autonome cause un accident, la responsabilité peut être partagée entre le fabricant du véhicule, le développeur du logiciel, et même le propriétaire du véhicule.
- Évolution juridique : les lois actuelles ne sont pas toujours adaptées pour traiter les questions spécifiques à l’IA. Par exemple, la législation californienne sur la sécurité de l’IA exige que les développeurs mettent en œuvre des protocoles pour éviter les risques déraisonnables. Cependant, ces lois sont encore en évolution et peuvent varier considérablement d’une juridiction à l’autre.
Exemples de cas de négligence
Un exemple pertinent est la législation californienne qui stipule que les développeurs d’IA doivent prendre des mesures raisonnables pour éviter de créer des modèles qui posent un risque déraisonnable de causer des dommages critiques. Cette approche met l’accent sur la responsabilité des développeurs dans la prévention des risques associés à leurs créations.
Un autre exemple est celui des véhicules autonomes. Si un véhicule autonome cause un accident en raison d’un défaut dans l’algorithme de navigation, les développeurs de cet algorithme pourraient être tenus responsables de la négligence. Cependant, prouver cette négligence peut être complexe, car il faut démontrer que les développeurs n’ont pas respecté les normes de diligence raisonnable dans la conception ou la mise à jour de l’algorithme.
Les implications éthiques et sociales
La question de la responsabilité des développeurs d’IA ne se limite pas aux aspects juridiques. Elle a également des implications éthiques et sociales importantes. Par exemple, si les développeurs d’IA sont tenus responsables de la négligence, cela pourrait encourager une plus grande diligence et une meilleure éthique dans le développement des technologies d’IA. Cela pourrait également inciter les entreprises à investir davantage dans la sécurité et la fiabilité de leurs systèmes d’IA.
D’un autre côté, une responsabilité accrue pourrait freiner l’innovation. Les développeurs et les entreprises pourraient devenir réticents à prendre des risques, ce qui pourrait ralentir le progrès technologique. Il est donc crucial de trouver un équilibre entre la protection des utilisateurs et la promotion de l’innovation.
Conclusion
La question de la responsabilité des développeurs d’IA pour négligence est complexe et en évolution. Alors que les systèmes d’IA continuent de se développer et de s’intégrer dans divers aspects de la société, il est crucial de mettre en place des cadres juridiques clairs pour garantir que ceux qui créent ces technologies soient tenus responsables de leurs actions. Cela permettra non seulement de protéger les utilisateurs, mais aussi de promouvoir une innovation responsable et éthique dans le domaine de l’IA.
Source : Bryan H. Choi
Et vous ?
Êtes-vous d'accord avec Bryan H. Choi lorsqu'il estime que les approches les plus populaires en matière de sécurité et de responsabilité de l'IA permettent aux ingénieurs de l'IA de se dissocier des préjudices qu'ils infligent à autrui ?
Pensez-vous que les lois actuelles sont suffisantes pour traiter les questions de négligence dans le développement de l’IA? Pourquoi ou pourquoi pas?
Quels sont, selon vous, les principaux défis juridiques liés à la responsabilité des développeurs d’IA?
Comment les développeurs d’IA peuvent-ils mieux garantir la sécurité et l’éthique de leurs systèmes?
À votre avis, qui devrait être tenu responsable en cas de dysfonctionnement d’un système d’IA : les développeurs, les entreprises, ou les utilisateurs finaux?
Avez-vous des exemples de cas où la négligence dans le développement de l’IA a conduit à des conséquences graves?
Comment pensez-vous que la législation devrait évoluer pour mieux encadrer la responsabilité des développeurs d’IA?
Quels sont les avantages et les inconvénients de tenir les développeurs d’IA responsables de la négligence?
Comment les entreprises peuvent-elles équilibrer l’innovation en IA avec la nécessité de minimiser les risques pour les utilisateurs?
Partager