Un nouveau rapport de la Maison-Blanche adopte l'IA open source, pour soutenir l'ouverture de l'IA tout en travaillant sur de nouvelles capacités de surveillance des risques potentiels de l'IA
Dans un nouveau rapport, la Maison-Blanche souligne l'importance de l'IA à source ouverte pour l'innovation, tout en insistant sur la nécessité d'une surveillance vigilante des risques liés à la technologie d'IA. Publié par l'Administration nationale des télécommunications et de l'information (NTIA), le rapport préconise de continuer à soutenir l'ouverture de l'IA et met en garde contre la restriction de la disponibilité des poids des modèles ouverts. Cette position s'inscrit dans une stratégie plus large, décrite dans le récent décret du président Biden, visant à maximiser les avantages des modèles d'IA largement disponibles tout en gérant et en atténuant les risques qui en découlent.
L'intelligence artificielle (IA), dans son sens le plus large, est l'intelligence dont font preuve les machines, en particulier les systèmes informatiques. Il s'agit d'un domaine de recherche en informatique qui développe et étudie des méthodes et des logiciels permettant aux machines de percevoir leur environnement et d'utiliser l'apprentissage et l'intelligence pour prendre des mesures qui maximisent leurs chances d'atteindre des objectifs définis. Ces machines peuvent être appelées des IA.
Selon une nouvelle déclaration, la Maison Blanche est consciente que les logiciels libres sont essentiels au développement de l'intelligence artificielle (IA), à l'instar de nombreuses entreprises qui utilisent cette technologie. Le mardi 31 juillet, la National Telecommunications and Information Administration (NTIA) a publié un rapport soutenant les modèles ouverts et à code source ouvert pour promouvoir l'innovation dans le domaine de l'intelligence artificielle, tout en soulignant la nécessité d'une surveillance vigilante des risques. Le rapport recommande aux États-Unis de continuer à soutenir l'ouverture de l'IA tout en travaillant sur de nouvelles capacités de surveillance des risques potentiels liés à l'IA, mais en s'abstenant de restreindre la disponibilité des poids des modèles ouverts.
Comme l'a déclaré le président Biden, « l'intelligence artificielle (IA) recèle un potentiel extraordinaire, à la fois prometteur et dangereux ». Le développement de modèles d'IA de plus en plus avancés, tels que les modèles de fondation à double usage, a considérablement accru les risques et les avantages potentiels des systèmes d'IA. De nombreux développeurs ne donnent qu'un accès limité, voire aucun accès public, au fonctionnement interne de leurs modèles avancés, y compris à leurs poids. En revanche, certains développeurs, comme Meta, Google, Microsoft, Stability AI, Mistral, l'Allen Institute for AI et EleutherAI, ont publié des modèles - mais pas toujours leurs modèles les plus avancés - avec des poids largement disponibles (c'est-à-dire ouverts au public en permettant aux utilisateurs de télécharger ces poids sur l'internet ou par d'autres mécanismes).
Les modèles de base à double usage dont les poids sont largement disponibles (appelés dans le rapport « modèles de fondation ouverts ») présentent un large éventail d'avantages. Ils diversifient et élargissent l'éventail des acteurs, y compris des acteurs moins bien dotés en ressources, qui participent à la recherche et au développement de l'IA. Ils décentralisent le contrôle du marché de l'IA par rapport à quelques grands développeurs d'IA. Enfin, ils permettent aux utilisateurs d'exploiter les modèles sans partager les données avec des tiers, ce qui renforce la confidentialité et la protection des données.
Cependant, rendre les poids de certains modèles de fondation largement disponibles pourrait également engendrer des préjudices et des risques pour la sécurité nationale, l'équité, la sécurité, la vie privée ou les droits civils par le biais d'une mauvaise utilisation affirmative, d'échecs de surveillance efficace ou de l'absence de mécanismes de responsabilité clairs.
En octobre 2023, le président Biden a signé un décret intitulé « Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence » (développement et utilisation sûrs, sécurisés et dignes de confiance de l'intelligence artificielle). Soulignant l'importance de maximiser les avantages des modèles de fondation à double usage avec des poids de modèle largement disponibles tout en gérant et en atténuant les risques qui en découlent, la section 4.6 du décret a chargé le secrétaire au commerce, agissant par l'intermédiaire du secrétaire adjoint au commerce pour les communications et l'information et en consultation avec le secrétaire d'État, de solliciter des commentaires « du secteur privé, des universités, de la société civile et d'autres parties prenantes par le biais d'un processus de consultation publique sur les risques potentiels, les avantages, les autres implications et les approches politiques et réglementaires appropriées liées aux modèles de fondation à double usage pour lesquels les poids de modèle sont largement disponibles ».
Le décret signé par le président Biden dénotait en outre que le secrétaire au Commerce, par l'intermédiaire du secrétaire adjoint au Commerce pour les communications et l'information et en consultation avec le secrétaire d'État et les chefs des agences concernées, serait l'auteur d'un rapport au président sur les « avantages, risques et implications potentiels des modèles de fondation à double usage pour lesquels les poids des modèles sont largement disponibles, ainsi que les recommandations politiques et réglementaires relatives à ces modèles. » Dans le cadre de cette mission, la National Telecommunications and Information Administration (NTIA) a publié un appel à commentaires en février 2024 et a reçu 332 commentaires en réponse. La NTIA a en outre mené une vaste campagne de sensibilisation auprès des parties prenantes, notamment en organisant deux événements publics pour recueillir les commentaires d'une série d'experts en politique et en technologie. Le rapport de la Maison-Blanche et ses conclusions s'appuient en grande partie sur ces commentaires.
Ce rapport présente un examen non exhaustif des risques et des avantages des modèles de fondations ouvertes, répartis dans les grandes catégories suivantes : sécurité publique ; risques sociétaux et bien-être ; concurrence, innovation et recherche ; considérations géopolitiques ; et incertitude quant aux risques et avantages futurs. Il est important de comprendre ces risques comme des risques marginaux, c'est-à-dire des risques propres au déploiement de modèles de fondation à double usage avec des poids de modèle largement disponibles par rapport aux risques liés à d'autres technologies existantes, y compris les modèles à poids fermés et les modèles qui ne sont pas considérés comme des modèles de fondation à double usage selon la définition du décret (tels que les modèles de fondation avec moins de 10 milliards de paramètres).
Enfin, le rapport de la Maison-Blanche examine dans quelles circonstances le gouvernement américain devrait restreindre la large disponibilité des poids de modèles pour les modèles de fondations à double usage. Il évalue une série d'approches politiques, leurs risques et leurs avantages. Le rapport conclut que les données actuelles ne sont pas suffisantes pour déterminer de manière définitive si des restrictions sur ces modèles à poids libres sont justifiées ou si des restrictions ne seront jamais appropriées à l'avenir.
Au lieu de cela, le rapport de la Maison-Blanche suggère que le gouvernement surveille activement un portefeuille de risques qui pourraient découler des modèles de fondation à double usage avec des poids de modèle largement disponibles et prenne des mesures pour s'assurer que le gouvernement est prêt à agir si des risques accrus apparaissent. Plus précisément, le rapport recommande que le gouvernement :
- Collecte des éléments de preuve :
- a. En encourageant l'adoption de normes et, le cas échéant, en imposant des audits, des divulgations et une transparence pour les modèles de fondation à double usage (y compris ceux pour lesquels les poids des modèles ne sont pas largement disponibles) ;
- b. En soutenant et en menant des recherches sur la sûreté, la sécurité et la fiabilité des modèles de fondation et des modèles à haut risque, ainsi que sur leurs utilisations en aval ;
- c. En soutenant la recherche externe sur les capacités et les limites actuelles et futures de certains modèles de fondations à double usage et sur les mesures d'atténuation des risques ; et
- d. En développant et en maintenant un ensemble de portefeuilles de risques, d'indicateurs et de seuils.
- Évalue les preuves :
- a. En analysant le délai qui s'écoule entre le moment où les développeurs introduisent des fonctionnalités dans les principaux modèles propriétaires et le moment où ces mêmes fonctionnalités sont mises à disposition dans les modèles ouverts ;
- b. En élaborant des points de référence et des définitions à des fins de suivi et d'action potentielle si cela est jugé approprié ; et
- c. En maintenant et en renforçant les capacités des experts du gouvernement fédéral dans les domaines technique, juridique, des sciences sociales et de la politique afin de soutenir l'évaluation des preuves.
- Agisse sur les évaluations par le biais d'actions telles que :
- a. Des restrictions d'accès aux modèles ; ou
- b. D'autres mesures d'atténuation des risques.
- Garde ouverte la possibilité d'une action gouvernementale supplémentaire.
Ces recommandations soutiennent la capacité des développeurs qui choisissent de rendre les poids des modèles largement disponibles à l'heure actuelle, tout en renforçant la capacité du gouvernement à contrôler si les futurs modèles présentent des risques qui indiquent qu'il pourrait être approprié de limiter la disponibilité des poids des modèles ou d'appliquer d'autres mesures appropriées d'atténuation des risques. Le rapport de la Maison-Blanche fournit des orientations et des considérations de haut niveau pour cette recommandation.
Le rapport fournit relativement peu d'informations sur les futures versions des modèles de fondations à double usage dont les poids sont largement disponibles ; toutefois, l'action recommandée pour surveiller les risques aiderait le gouvernement à déterminer les capacités des futurs modèles de fondations à double usage dont les poids sont largement disponibles. En l'absence de changements dans les capacités de recherche et de surveillance, cette dynamique pourrait persister : toute preuve de risques qui justifierait d'éventuelles interventions politiques visant à restreindre la disponibilité des poids de modèle pourrait n'apparaître qu'après que des modèles d'IA dotés de ces capacités, fermés ou ouverts, aient été développés ou diffusés.
En résumé, le rapport de la Maison-Blanche trace une voie prudente mais optimiste qui suit les politiques de longue date du gouvernement américain en faveur d'un accès généralisé aux technologies numériques et à leurs avantages, tout en se préparant néanmoins au développement potentiel de modèles pour lesquels une autre approche pourrait être justifiée.
Source : "Dual-Use Foundation Models with Widely Available Model Weights" (Rapport de la Maison-Blanche)
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous cette initiative de la Maison-Blanche crédible ou pertinente ?
Voir aussi :
La Maison-Blanche ordonne à chaque agence fédérale de recruter un responsable de l'IA pour superviser tous les outils d'IA qu'elle utilise, afin de s'assurer qu'ils sont sûrs et non discriminatoires
Joe Biden signe un décret visant à superviser et à investir dans l'IA, ses objectifs vont des droits civils aux réglementations industrielles, en passant par l'embauche de personnel
L'IA open source est la voie à suivre, car elle permet à un plus grand nombre de personnes dans le monde d'avoir accès aux avantages et aux opportunités de l'IA, par Mark Zuckerberg, fondateur et PDG de Meta
Partager