La Maison Blanche met les hackers au défi de casser les meilleurs modèles d'IA
lors de la conférence DEF CON 31
La Maison Blanche a annoncé le 4 mai une collaboration entre les principaux développeurs d'IA qui a surpris plus d’un, dont OpenAI, Google, Antrhopic, Hugging Face, Microsoft, Nvidia et Stability AI, pour participer à une évaluation publique de leurs systèmes d'IA générative lors de DEF CON 31, une convention de hackers qui aura lieu à Las Vegas en août. L'événement sera organisé par AI Village, une communauté de hackers de l'IA.
L'IA est l'une des technologies les plus puissantes de notre époque, mais pour saisir les opportunités qu'elle présente, nous devons d'abord atténuer ses risques. Le président Biden a clairement indiqué qu'en matière d'IA, nous devons placer les personnes et les communautés au centre en soutenant une innovation responsable qui sert le bien public, tout en protégeant notre société, notre sécurité et notre économie. Cela signifie notamment que les entreprises ont la responsabilité fondamentale de s'assurer que leurs produits sont sûrs avant de les déployer ou de les rendre publics.
L’objectif de l’événement est de tester les limites de ces nouveaux modèles d’IA génératifs, tels que les grands modèles de langage (LLM), qui sont utilisés pour accélérer les tâches d’écriture et de communication, mais qui présentent également des risques inhérents, tels que les confabulations, les évasions et les biais. La Maison Blanche soutient cette initiative qui s’inscrit dans le cadre de la Déclaration des droits de l’IA du président Biden et du Cadre de gestion des risques liés à l’IA du National Institute of Standards and Technology.
Selon les organisateurs, il s’agira du « plus grand exercice de red teaming jamais réalisé pour un groupe de modèles d’IA ». Des milliers de personnes participeront à l’évaluation publique des modèles d’IA, qui utilisera une plateforme d’évaluation développée par Scale AI. Le « red teaming » est un processus par lequel des experts en sécurité tentent de trouver des vulnérabilités ou des failles dans les systèmes d’une organisation pour améliorer la sécurité et la résilience globales. Les LLM se sont révélés particulièrement difficiles à sécuriser en partie à cause d’une technique appelée "injection de prompt", qui peut détourner un modèle de langage pour lui faire effectuer des actions non voulues par son créateur.
Aujourd'hui, l'administration Biden-Harris annonce de nouvelles mesures visant à promouvoir l'innovation américaine responsable dans le domaine de l'intelligence artificielle (IA) et à protéger les droits et la sécurité des personnes. Ces mesures s'appuient sur les solides antécédents de l'administration en matière de leadership pour garantir que la technologie améliore la vie du peuple américain, et ouvrent de nouvelles perspectives dans les efforts continus du gouvernement fédéral pour promouvoir une approche cohérente et globale des risques et des opportunités liées à l'IA.
Le vice-président Harris et de hauts responsables de l'administration rencontreront les PDG de quatre entreprises américaines à la pointe de l'innovation en matière d'IA - Alphabet, Anthropic, Microsoft et OpenAI - pour souligner cette responsabilité et insister sur l'importance d'une innovation responsable, digne de confiance et éthique, assortie de garanties qui atténuent les risques et les préjudices potentiels pour les individus et notre société. Cette réunion s'inscrit dans le cadre d'un effort plus large et continu de dialogue avec les défenseurs, les entreprises, les chercheurs, les organisations de défense des droits civils, les organisations à but non lucratif, les communautés, les partenaires internationaux et d'autres parties prenantes sur les questions essentielles liées à l'IA.
Depuis l'année dernière, les grands modèles de langage (LLM) tels que ChatGPT sont devenus un moyen populaire d'accélérer les tâches d'écriture et de communication, mais les responsables reconnaissent qu'ils comportent également des risques inhérents. Les pasteurs ont utilisé ChatGPT afin de rédiger des sermons, mais certains prêtres affirment que les ordinateurs ne reproduisent pas la passion d'une véritable prédication. « Une nouvelle aussi bouleversante doit être délivrée par un humain, en personne », a déclaré un prêtre. Des questions telles que les confabulations, les violations de prison et les préjugés posent des problèmes aux professionnels de la sécurité et au public. C'est pourquoi le Bureau de la science, de la technologie et de la politique de la Maison Blanche soutient l'idée de pousser ces nouveaux modèles d'IA générative jusqu'à leurs limites.
Les annonces comprennent :
- de nouveaux investissements pour soutenir la recherche et le développement (R&D) américains en matière d’IA. La National Science Foundation annonce 140 millions de dollars de financement pour lancer sept nouveaux instituts nationaux de recherche sur l’IA. Ces instituts favorisent la collaboration entre les établissements d’enseignement supérieur, les agences fédérales, l’industrie et d’autres acteurs pour réaliser des avancées transformatrices en matière d’IA qui sont éthiques, fiables, responsables et servent le bien public. Ces instituts renforcent également l’infrastructure de R&D en matière d’IA aux États-Unis et soutiennent le développement d’une main-d’œuvre diversifiée en matière d’IA. Les nouveaux instituts indiqués aujourd’hui visent à faire progresser la R&D en matière d’IA dans des domaines critiques tels que le climat, l’agriculture, l’énergie, la santé publique, l’éducation et la cybersécurité ;
- des évaluations publiques des systèmes d’IA génératifs existants. L’administration annonce un engagement indépendant des principaux développeurs d’IA, dont Anthropic, Google, Hugging Face, Microsoft, NVIDIA, OpenAI et Stability AI, à participer à une évaluation publique des systèmes d’IA, conformément aux principes de divulgation responsable - sur une plateforme d’évaluation développée par Scale AI - au AI Village du DEFCON 31. Cela permettra à ces modèles d’être évalués de manière approfondie par des milliers de partenaires communautaires et d’experts en IA pour explorer comment les modèles s’alignent sur les principes et les pratiques décrits dans le projet de déclaration des droits de l’IA et le cadre de gestion des risques liés à l’IA du gouvernement de Biden-Harris. Cet exercice indépendant fournira des informations essentielles aux chercheurs et au public sur les impacts de ces modèles, et permettra aux entreprises et aux développeurs d’IA de prendre des mesures pour corriger les problèmes trouvés dans ces modèles. Le test des modèles d’IA indépendamment du gouvernement ou des entreprises qui les ont développés est un élément important de leur évaluation efficace ;
- des politiques pour garantir que le gouvernement américain montre l’exemple en matière d’atténuation des risques liés à l’IA et d’exploitation des opportunités offertes par l’IA. Le Bureau de la gestion et du budget (OMB) annonce qu’il publiera un projet de lignes directrices sur l’utilisation des systèmes d’IA par le gouvernement américain pour consultation publique. Ces lignes directrices établiront des politiques spécifiques que les départements et les agences fédéraux devront suivre pour garantir que leur développement, leur acquisition et leur utilisation des systèmes d’IA se concentrent sur la protection des droits et de la sécurité du peuple américain. Elles permettront également aux agences de tirer parti de l’IA de manière responsable pour faire avancer leurs missions et renforcer leur capacité à servir équitablement les Américains - et serviront de modèle aux gouvernements des États et locaux, aux entreprises et à d’autres acteurs dans leur propre acquisition et utilisation de l’IA. L’OMB publiera ce projet de lignes directrices pour consultation publique cet été, afin qu’il bénéficie des contributions des défenseurs, de la société civile, de l’industrie et d’autres parties prenantes avant qu’il ne soit finalisé.
La Maison Blanchea ainsi présenté les nouvelles actions annoncées par le gouvernement de Biden-Harris pour promouvoir une innovation responsable en matière d’IA qui protège les droits et la sécurité des Américains. Ces actions comprennent de nouveaux investissements pour soutenir la recherche et le développement en matière d’IA, des évaluations publiques des systèmes d’IA génératifs existants, et des politiques pour garantir que le gouvernement américain montre l’exemple en matière d’utilisation de l’IA.
Ces actions s’inscrivent dans la continuité des efforts de l’administration pour assurer un leadership américain dans le domaine de l’IA, tout en respectant les principes et les pratiques énoncés dans le projet de déclaration des droits de l’IA et le cadre de gestion des risques liés à l’IA. Elles visent également à protéger les utilisateurs des risques et des préjudices potentiels liés à l’IA, notamment en matière de discrimination, de cybersécurité et de sécurité nationale.
Source : White House
Et vous ?
Quel est votre avis sur le sujet ?
Comment le gouvernement de Biden-Harris pourra s’assurer que les évaluations publiques des systèmes d’IA génératifs sont menées de manière indépendante, transparente et éthique, et que les résultats sont communiqués au public et aux parties prenantes concernées ?
Comment le gouvernement de Biden-Harris peut-il impliquer la société civile, les organisations de défense des droits, les experts indépendants et les communautés affectées par l’IA dans l’élaboration et la mise en œuvre des politiques relatives à l’utilisation de l’IA ?
Voir aussi :
« Je suis un peu inquiet » : Warren Buffett compare l'IA à l'invention de la bombe atomique, il affirme que "l'IA changera tout dans le monde, sauf la façon dont les hommes pensent et se comportent"
Les capacités émergentes des grands modèles linguistiques sont-elles un mirage ? Les grands modèles linguistiques ne sont pas supérieurs à la somme de leurs parties, selon des chercheurs de Stanford
La menace que l'IA fait peser sur le monde pourrait être "plus urgente" que le changement climatique, selon Geoffrey Hinton, un des pionniers de la recherche en intelligence artificielle
L'essor de l'intelligence artificielle est inévitable, mais ne doit pas être craint, selon le « père de l'IA » Jürgen Schmidhuber
Les gens trouvent que les œuvres d'art générées par l'intelligence artificielle sont moins créatives, ils préfèrent le travail humain au travail généré par l'ordinateur
Partager