2 pièce(s) jointe(s)
Les entreprises technologiques se sont mises d'accord sur un « interrupteur d'arrêt » de l'IA
Les entreprises technologiques se sont mises d'accord sur la mise en place d'un « interrupteur d'arrêt » de l'IA pour éviter les risques du type Terminator.
Elles s'engagent à ne pas dépasser les limites, mais lesquelles ?
Les plus grandes entreprises d’intelligence artificielle (IA) du monde ont récemment pris une mesure importante pour atténuer les craintes liées au développement incontrôlé de l’IA. Lors d’un sommet à Séoul, 16 entreprises influentes, dont Anthropic, Microsoft et OpenAI, ont convenu d’un « interrupteur d’arrêt » pour leurs modèles d’IA les plus avancés. Mais qu’est-ce que cela signifie exactement et comment cela pourrait-il affecter notre avenir?
Il n'est pas question de remettre l'IA dans la boîte de Pandore, mais les plus grandes entreprises d'IA du monde collaborent volontairement avec les gouvernements pour répondre aux plus grandes craintes liées à cette technologie et apaiser les inquiétudes selon lesquelles le développement incontrôlé de l'IA pourrait conduire à des scénarios de science-fiction dans lesquels l'IA se retournerait contre ses créateurs. Toutefois, sans dispositions juridiques strictes renforçant les engagements des gouvernements en matière d'IA, les conversations n'iront pas plus loin.
Plus tôt ce mois-ci, 16 entreprises d'IA influentes, dont Anthropic, Microsoft et OpenAI, 10 pays et l'UE se sont réunis lors d'un sommet à Séoul pour définir des lignes directrices sur le développement responsable de l'IA. L'un des principaux résultats du sommet est que les entreprises d'IA présentes se sont mises d'accord sur ce que l'on appelle un « kill switch », c'est-à-dire une politique selon laquelle elles arrêteraient le développement de leurs modèles d'IA les plus avancés s'ils étaient considérés comme ayant franchi certains seuils de risque. Il est toutefois difficile de savoir si cette politique est réellement efficace, étant donné qu'elle n'est pas assortie d'un poids juridique réel ou qu'elle ne définit pas de seuils de risque spécifiques. De plus, les autres entreprises d'IA non présentes, ou concurrentes de celles qui ont accepté les termes de l'accord dans l'esprit, ne seraient pas soumises à l'engagement.
« À l'extrême, les organisations s'engagent à ne pas développer ou déployer un modèle ou un système si des mesures d'atténuation ne peuvent pas être appliquées pour maintenir les risques en dessous des seuils », peut-on lire dans le document d'orientation signé par les entreprises d'IA, dont Amazon, Google et Samsung.
Concernant l'identification et la gestion des risques, voici d'autres éléments qui sont ressortis de ce sommet :
- Évaluer les risques posés par leurs modèles ou systèmes d'avant-garde tout au long du cycle de vie de l'IA, y compris avant le déploiement du modèle ou du système et, le cas échéant, avant et pendant la formation. Les évaluations des risques devraient tenir compte des capacités des modèles et du contexte dans lequel ils sont développés et déployés, ainsi que de l'efficacité des mesures d'atténuation mises en œuvre pour réduire les risques associés à leur utilisation prévisible et à leur mauvaise utilisation. Elles devraient également prendre en compte les résultats des évaluations internes et externes, le cas échéant, telles que celles effectuées par des évaluateurs tiers indépendants, par leurs gouvernements d'origine et par d'autres organismes que leurs gouvernements jugent appropriés.
- Fixer des seuils à partir desquels les risques graves posés par un modèle ou un système, s'ils ne sont pas atténués de manière adéquate, seraient jugés intolérables. Évaluer si ces seuils ont été franchis, et notamment contrôler dans quelle mesure un modèle ou un système est proche d'un tel franchissement. Ces seuils doivent être définis avec l'aide d'acteurs de confiance, y compris, le cas échéant, les gouvernements nationaux respectifs des organisations. Ils doivent être alignés sur les accords internationaux pertinents auxquels leurs gouvernements d'origine sont parties. Ils doivent également être accompagnés d'une explication de la manière dont les seuils ont été fixés et d'exemples spécifiques de situations dans lesquelles les modèles ou les systèmes présenteraient un risque intolérable.
- Expliquer comment les mesures d'atténuation des risques seront identifiées et mises en œuvre pour maintenir les risques dans les limites définies, y compris les mesures d'atténuation des risques liés à la sûreté et à la sécurité, telles que la modification du comportement des systèmes et la mise en œuvre de contrôles de sécurité robustes pour les pondérations de modèle non publiées.
- Définir des processus explicites qu'ils ont l'intention de suivre si leur modèle ou leur système présente des risques qui atteignent ou dépassent les seuils prédéfinis. Il s'agit notamment de processus visant à poursuivre le développement et le déploiement de leurs systèmes et modèles uniquement s'ils estiment que les risques résiduels resteront en deçà des seuils. À l'extrême, les organisations s'engagent à ne pas développer ou déployer un modèle ou un système s'il est impossible d'appliquer des mesures d'atténuation pour maintenir les risques en deçà des seuils.
- Investir en permanence dans l'amélioration de leur capacité à mettre en œuvre les engagements i-iv, y compris l'évaluation et l'identification des risques, la définition des seuils et l'efficacité des mesures d'atténuation. Cela devrait inclure des processus permettant d'évaluer et de contrôler l'adéquation des mesures d'atténuation et d'identifier des mesures d'atténuation supplémentaires, le cas échéant, afin de garantir que les risques restent inférieurs aux seuils prédéfinis. Ils contribueront aux meilleures pratiques émergentes, aux normes internationales et aux travaux scientifiques sur l'identification, l'évaluation et l'atténuation des risques liés à l'IA, et tiendront compte de ces éléments.
Un groupe de participants a rédigé une lettre ouverte critiquant l'absence de réglementation officielle
Ce sommet faisait suite au sommet de Bletchley Park sur la sécurité de l'IA, qui s'est tenu en octobre dernier et qui a rassemblé un groupe similaire de développeurs d'IA. Il a été critiqué pour son manque d'engagements concrets à court terme visant à protéger l'humanité de la prolifération de l'IA.
À la suite de ce sommet, un groupe de participants a rédigé une lettre ouverte critiquant l'absence de réglementation officielle du forum et le rôle prépondérant des entreprises d'IA dans la promotion de la réglementation dans leur propre secteur. « L'expérience a montré que la meilleure façon de s'attaquer à ces problèmes est de mettre en place des mandats réglementaires exécutoires, et non des mesures d'autorégulation ou volontaires », peut-on lire dans la lettre.
D'abord dans la science-fiction, et maintenant dans la vie réelle, des écrivains et des chercheurs ont mis en garde contre les risques d'une intelligence artificielle puissante depuis des décennies. L'une des références les plus connues est le « scénario Terminator », théorie selon laquelle, si elle n'est pas maîtrisée, l'IA pourrait devenir plus puissante que ses créateurs humains et se retourner contre eux. Cette théorie tire son nom du film d'Arnold Schwarzenegger de 1984, dans lequel un cyborg remonte le temps pour tuer une femme dont le fils à naître luttera contre un système d'IA destiné à déclencher un holocauste nucléaire.
« L'IA offre d'immenses possibilités de transformer notre économie et de résoudre nos plus grands défis, mais j'ai toujours été claire sur le fait que ce potentiel ne peut être pleinement exploité que si nous sommes capables de maîtriser les risques posés par cette technologie complexe qui évolue rapidement », a déclaré Michelle Donelan, secrétaire d'État britannique à la technologie.
Les entreprises spécialisées dans l'IA reconnaissent elles-mêmes que leurs offres les plus avancées s'aventurent dans des eaux technologiques et morales inexplorées. Le PDG d'OpenAI, Sam Altman, a déclaré que l'intelligence artificielle générale (IAG), qu'il définit comme une IA qui dépasse l'intelligence humaine, est « pour bientôt » et qu'elle comporte des risques.
« L'IAG s'accompagnerait également d'un risque sérieux de mauvaise utilisation, d'accidents graves et de perturbations sociétales », peut-on lire dans un billet de blog d'OpenAI. « Parce que le potentiel de l'IAG est si important, nous ne pensons pas qu'il soit possible ou souhaitable pour la société d'arrêter son développement pour toujours ; au contraire, la société et les développeurs de l'IAG doivent trouver le moyen de bien faire les choses ».
Des difficultés à mettre en place des cadres réglementaires mondiaux autour de l'IA
Jusqu'à présent, les efforts visant à mettre en place des cadres réglementaires mondiaux autour de l'IA ont été dispersés et, pour la plupart, dépourvus d'autorité législative. Un cadre politique des Nations unies demandant aux pays de se prémunir contre les risques de l'IA pour les droits de l'homme, de surveiller l'utilisation des données personnelles et d'atténuer les risques liés à l'IA a été approuvé à l'unanimité le mois dernier, mais il n'était pas contraignant. La déclaration de Bletchley, pièce maîtresse du sommet mondial sur l'IA qui s'est tenu en octobre dernier au Royaume-Uni, ne contenait aucun engagement tangible en matière de réglementation.
Entre-temps, les entreprises du secteur de l'IA ont commencé à créer leurs propres organisations en faveur d'une politique de l'IA. Par exemple, Amazon et Meta ont rejoint la Frontier Model Foundation, une organisation à but non lucratif « dédiée à l'amélioration de la sécurité des modèles d'IA d'avant-garde », selon son site web. Ils rejoignent les membres fondateurs Anthropic, Google, Microsoft et OpenAI. L'organisation à but non lucratif n'a pas encore présenté de propositions politiques fermes.
Conclusion
L’IA offre d’immenses opportunités pour transformer notre économie et résoudre nos plus grands défis, mais nous devons également gérer les risques posés par cette technologie complexe. L’accord sur l’interrupteur d’arrêt est un pas dans la bonne direction, mais il reste encore beaucoup à faire pour garantir que l’IA reste bénéfique pour l’humanité. Comme l’a déclaré Michelle Donelan, secrétaire à la technologie du Royaume-Uni : « Ce potentiel complet ne peut être débloqué que si nous sommes capables de maîtriser les risques posés par cette technologie en constante évolution ».
Sources : Engagements en matière de sécurité de l'IA d'avant-garde, Sommet de Séoul sur l'IA 2024, AI Now se joint aux groupes de la société civile dans une déclaration appelant à une réglementation pour protéger le public, des leaders mondiaux décident de lancer le premier réseau international d'instituts de sécurité de l'IA afin de stimuler la coopération en matière d'IA, OpenAI, l'Assemblée générale des Nations unies (AGNU) a adopté la première résolution mondiale sur l'intelligence artificielle, Amazon et Meta rejoignent le Frontier Model Forum pour promouvoir la sécurité de l'IA
Et vous ?
:fleche: Pensez-vous que les entreprises d’IA devraient être autorisées à réguler elles-mêmes leurs propres technologies, ou devrions-nous compter davantage sur des réglementations gouvernementales ?
:fleche: Quels critères devraient être utilisés pour déterminer si un modèle d’IA est trop risqué et doit être arrêté ?
:fleche: Quelles autres mesures pourraient être prises pour prévenir les risques liés à l’IA, en plus de l’interrupteur d’arrêt ?
:fleche: Croyez-vous que l’accord sur l’interrupteur d’arrêt est suffisant pour protéger l’humanité contre les risques de l’IA, ou faut-il aller plus loin ?
:fleche: Comment pouvons-nous équilibrer les avantages de l’IA avec les préoccupations légitimes concernant la sécurité et l’éthique ?
2 pièce(s) jointe(s)
Les entreprises s'attaquent au projet de loi californien incluant la création d’un « kill switch » IA
Les entreprises de la tech s'attaquent au projet de loi californien incluant la création d’un « interrupteur d’arrêt »
pour désactiver leurs modèles d’IA les plus puissants
Les géants de l’intelligence artificielle en Californie sont montés au créneau contre un projet de loi de l’État qui imposerait aux entreprises technologiques de se conformer à un cadre de sécurité strict, incluant la création d’un « interrupteur d’arrêt » pour désactiver leurs modèles d’IA les plus puissants. Cette proposition législative, qui a suscité une vive réaction de la part des poids lourds de la Silicon Valley, soulève des questions cruciales sur l’équilibre entre l’innovation et la sécurité dans le domaine de l’IA.
Le 7 février 2024, le Safe and Secure Innovation for Frontier Artificial Intelligence Systems Act (SB 1047) a été présenté au Sénat californien. Le projet de loi vise à imposer une diligence raisonnable, des tests et des conclusions supplémentaires pour certains modèles d'intelligence artificielle couverts avant leur utilisation commerciale, publique ou à grande échelle.
La proposition de loi impose aux développeurs de systèmes d'intelligence artificielle de s'assurer que leurs modèles ne possèdent pas de capacités dangereuses, telles que la création d'armes biologiques ou nucléaires ou l'aide aux attaques de cybersécurité. Le projet de loi, qui a déjà été adopté par le Sénat de l'État le 21 mai 2024 et devrait être soumis au vote de l'assemblée générale en août, exige également des développeurs qu'ils rendent compte de leurs tests de sécurité et qu'ils mettent en place un « interrupteur d'arrêt » pour désactiver leurs modèles en cas de besoin.
Le projet de loi vise les grandes start-ups d'IA comme OpenAI, Anthropic et Cohere, ainsi que les grands modèles de langage des géants de la technologie tels que Meta. Le sénateur démocrate de l'État, Scott Wiener, qui a présenté le projet de loi, a souligné la nécessité de mesures de sécurité proactives en déclarant : « Fondamentalement, je souhaite que l'IA réussisse et que l'innovation se poursuive, mais essayons d'anticiper tout risque en matière de sécurité ». Il a décrit le projet de loi comme une mesure « légère » visant à garantir des évaluations de sécurité de base et l'atténuation des risques.
L'opposition de l'industrie
La proposition de loi a suscité une vive opposition de la part de l'industrie technologique, en particulier dans la Silicon Valley. Ses détracteurs estiment qu'elle pourrait étouffer l'innovation et pousser les jeunes pousses de l'IA à quitter la Californie. Andrew Ng, éminent informaticien et membre du conseil d'administration d'Amazon, a critiqué le projet de loi en déclarant : « Si quelqu'un voulait élaborer des réglementations pour étouffer l'innovation, il pourrait difficilement faire mieux. Il crée des responsabilités massives pour des risques de science-fiction, et alimente ainsi la peur chez tous ceux qui osent innover ».
Arun Rao, chef de produit pour l'IA générative chez Meta, a également fait part de ses inquiétudes, qualifiant le projet de loi « d'irréalisable » et avertissant qu'il pourrait « mettre fin à l'open source en [Californie] ». Il a ajouté que l'impact économique pourrait être substantiel, coûtant potentiellement des milliards lorsque les entreprises et les travailleurs hautement rémunérés quitteront l'État.
Malgré les réactions négatives, Wiener reste attaché au projet de loi, déclarant : « Il s'agit du secteur technologique, qui n'aime pas les réglementations, et je ne suis donc pas du tout surpris qu'il y ait des réactions négatives ». Il a également fait part de son intention d'amender le projet de loi afin d'en clarifier le champ d'application, notamment en exemptant les modèles open source de l'obligation de « kill switch » et en limitant l'application du projet de loi aux grands modèles dont la formation a coûté au moins 100 millions de dollars.
Pièce jointe 655789
Scott Wiener, législateur démocrate au Sénat de l'État de Californie, propose une législation visant à réglementer l'IA
Un contexte réglementaire plus large
Le débat sur la réglementation de l'IA ne se limite pas à la Californie. Les gouvernements du monde entier s'efforcent de gérer les progrès rapides de la technologie de l'IA. En octobre, le président américain Joe Biden a publié un décret visant à établir de nouvelles normes en matière de sûreté de l'IA et de sécurité nationale, à protéger les citoyens contre les risques d'atteinte à la vie privée liés à l'IA et à lutter contre la discrimination algorithmique. Le gouvernement britannique a également présenté des projets de réglementation de l'IA, et l'Union européenne a adopté une législation complète visant à mettre en place des garde-fous pour cette technologie.
Edward Snowden, le lanceur d'alerte qui a révélé les programmes de surveillance mondiale du gouvernement américain, s'est exprimé sur la question lors d'un appel vidéo à l'occasion de l'événement SuperAI à Singapour. Il a mis en garde contre une réglementation excessive en déclarant : « Nous assistons à la naissance d'un enfant doté d'une technologie entièrement nouvelle, et nous voyons déjà les loups-garous commencer à tourner en rond. » Snowden s'est dit préoccupé par le fait que les efforts de réglementation pourraient étouffer le potentiel de l'IA, ajoutant : « La panique liée à la sécurité de l'IA en général est quelque chose qui me pose problème. »
Le président américain Joe Biden a présenté en octobre un décret visant à établir de nouvelles normes en matière de sûreté de l'IA et de sécurité nationale, à protéger les citoyens contre les risques d'atteinte à la vie privée liés à l'IA et à lutter contre la discrimination algorithmique. En avril, le gouvernement britannique a fait part de son intention d'élaborer une nouvelle législation pour réglementer l'IA.
La croissance rapide et l'énorme potentiel de l'IA ont suscité des inquiétudes quant à la sécurité de cette technologie. L'année dernière, le milliardaire Elon Musk, investisseur de la première heure dans la société OpenAI, productrice de ChatGPT, l'a qualifiée de « menace existentielle » pour l'humanité. Cette semaine, un groupe d'anciens et d'actuels employés d'OpenAI a publié une lettre ouverte dans laquelle ils avertissent que les « entreprises d'IA pionnières » ne sont pas suffisamment surveillées par les gouvernements et qu'elles posent de « graves risques » pour l'humanité.
Le projet de loi californien a été coparrainé par le Center for AI Safety (CAIS), une organisation à but non lucratif basée à San Francisco et dirigée par l'informaticien Dan Hendrycks, qui est le conseiller en matière de sécurité de xAI, la start-up de Musk spécialisée dans l'IA. Le CAIS entretient des liens étroits avec le mouvement de l'altruisme efficace, qui a été rendu célèbre par Sam Bankman-Fried, un dirigeant de crypto-monnaie emprisonné.
Pourtant, fin mai, les entreprises de la tech se sont accordées sur la mise en place d'un « interrupteur d'arrêt » de l'IA
Il n'est pas question de remettre l'IA dans la boîte de Pandore, mais les plus grandes entreprises d'IA du monde collaborent volontairement avec les gouvernements pour répondre aux plus grandes craintes liées à cette technologie et apaiser les inquiétudes selon lesquelles le développement incontrôlé de l'IA pourrait conduire à des scénarios de science-fiction dans lesquels l'IA se retournerait contre ses créateurs. Toutefois, sans dispositions juridiques strictes renforçant les engagements des gouvernements en matière d'IA, les conversations n'iront pas plus loin.
En mai, 16 entreprises d'IA influentes, dont Anthropic, Microsoft et OpenAI, 10 pays et l'UE se sont réunis lors d'un sommet à Séoul pour définir des lignes directrices sur le développement responsable de l'IA. L'un des principaux résultats du sommet est que les entreprises d'IA présentes se sont mises d'accord sur ce que l'on appelle un « kill switch », c'est-à-dire une politique selon laquelle elles arrêteraient le développement de leurs modèles d'IA les plus avancés s'ils étaient considérés comme ayant franchi certains seuils de risque. Il est toutefois difficile de savoir si cette politique est réellement efficace, étant donné qu'elle n'est pas assortie d'un poids juridique réel ou qu'elle ne définit pas de seuils de risque spécifiques. De plus, les autres entreprises d'IA non présentes, ou concurrentes de celles qui ont accepté les termes de l'accord dans l'esprit, ne seraient pas soumises à l'engagement.
« À l'extrême, les organisations s'engagent à ne pas développer ou déployer un modèle ou un système si des mesures d'atténuation ne peuvent pas être appliquées pour maintenir les risques en dessous des seuils », peut-on lire dans le document d'orientation signé par les entreprises d'IA, dont Amazon, Google et Samsung.
Cette décision contraste avec les débats en Californie qui, contrairement à ceux du sommet de Séoul, pourraient devenir contraignant si la proposition venait à devenir loi.
Conclusion
Le débat autour du projet de loi californien sur l’interrupteur d’arrêt d’urgence pour l’IA met en lumière les défis auxquels sont confrontés les législateurs et l’industrie de l’IA. Alors que la sécurité est une préoccupation légitime, il est essentiel de trouver un terrain d’entente qui permette à l’innovation de prospérer tout en protégeant la société contre les risques potentiels de l’IA.
Sources : SB 1047: Safe and Secure Innovation for Frontier Artificial Intelligence Models Act, FT
Et vous ?
:fleche: Quelle est votre opinion sur l’obligation d’intégrer un « interrupteur d’arrêt » dans les systèmes d’IA ? Est-ce une mesure de précaution nécessaire ou une entrave à l’autonomie des technologies d’IA ?
:fleche: Qu'est-ce qui peut, selon vous, expliquer le fait que les entreprises s'accordent pour intégrer un « interrupteur d'arrêt » lorsque cette décision n'est pas contraignante juridiquement, mais s'oppose farouchement à cette possibilité qui pourrait être ancrée dans la loi californienne ?
:fleche: Comment les entreprises d’IA devraient-elles réagir face à des régulations qui pourraient limiter leur capacité d’innovation ?
:fleche: Pensez-vous que le gouvernement devrait avoir le pouvoir de désactiver des systèmes d’IA, et dans quelles circonstances cela serait-il justifié ?
:fleche: Quel impact pensez-vous que de telles lois auront sur l’avenir de l’industrie technologique en Californie et à l’échelle mondiale ?
:fleche: Les craintes concernant les « capacités dangereuses » des IA sont-elles justifiées selon vous ? Quels seraient les risques et les avantages d’une telle technologie ?
:fleche: En matière de sécurité des IA, quel rôle les citoyens devraient-ils jouer pour influencer les décisions législatives ?
Elon Musk prévoit "10 à 20 % de risques" de catastrophe mondiale due à l'IA
Elon Musk prévoit "10 à 20 % de risques" de catastrophe mondiale due à l'IA, mais le plus probable serait l'abondance, avec des biens et des services disponibles pour tous, et où travailler deviendrait inutile
Elon Musk a prédit un risque de catastrophe lié à l'IA de l'ordre de "10 à 20 %". Il a également insisté sur la liberté d'expression face aux demandes de censure de la part des annonceurs.
Elon Reeve Musk est un homme d'affaires et un investisseur connu pour ses rôles clés dans la société spatiale SpaceX et la société automobile Tesla, Inc. Il est également propriétaire de X Corp, anciennement Twitter, et a participé à la création de The Boring Company, xAI, Neuralink et OpenAI. Il est l'une des personnes les plus riches du monde ; en juin 2024, Forbes estime sa valeur nette à 214 milliards de dollars américains.
M. Musk, qui s'exprimait le mercredi 19 juin lors de la cérémonie des Lions de Cannes, a déclaré : « Je suis plutôt d'accord avec Geoff Hinton, l'un des parrains de l'IA, qui pense qu'il y a une probabilité de 10 à 20 % que quelque chose de terrible se produise. »
Musk n'a pas précisé ce qu'il entendait par "terrible", ajoutant plutôt : « Le verre est plein à 80 %. Il faut voir le bon côté des choses. »
Il poursuit : « Je pense que le résultat le plus probable est celui de l'abondance, où les biens et les services sont disponibles pour tout le monde. Il n'y a pas de pénurie pour chacun d'entre nous. Ce serait une randonnée universelle. Le travail serait facultatif ».
Il ajoute que cela pourrait entraîner « une crise de sens ».
« Si l'IA peut faire tout ce que vous pouvez faire, mais en mieux, à quoi bon faire les choses ? Je pense qu'il y aura une crise existentielle », a déclaré le propriétaire de X.
Parlant du "pire scénario" - l'anéantissement possible de l'homme par l'IA, Musk s'est interrogé : « Voudrais-je être là pour le voir ? Probablement, oui. »
Il a déclaré que nous vivions « la période la plus intéressante de l'histoire » et l'a répété à la fin devant un auditorium bondé, en disant à la salle : « Profitez du voyage. »
M. Musk s'est entretenu aux Lions de Cannes avec Mark Read, PDG de WPP, pour un vaste débat sur des sujets tels que le pouvoir de transformation de l'innovation technologique, la manière dont l'IA remodèle la créativité, le monde des affaires et la société, ainsi que l'avenir de sa plateforme de médias sociaux.
Doubler d'intensité sur la liberté d'expression
Il a réaffirmé son engagement en faveur de la liberté d'expression sur sa plateforme X, à la suite de batailles antérieures avec des annonceurs sur des questions de sécurité de la marque.
Musk a semblé heureux d'entrer dans la fosse aux lions des annonceurs, où il a été interrogé sur scène au sujet de son commentaire de novembre dernier selon lequel « les annonceurs peuvent aller se faire voir ».
Il a déclaré que sa remarque n'avait pas pour but de « cibler les annonceurs dans leur ensemble », ajoutant : « Je pense qu'il est important d'avoir une plateforme de liberté d'expression où des personnes de tous horizons peuvent exprimer leur point de vue. Dans certains cas, des annonceurs ont insisté sur la censure. S'il faut choisir entre la censure et l'argent et la liberté d'expression et la perte d'argent, nous choisirons la deuxième solution. »
Il poursuit : « Les annonceurs ont le droit d'apparaître à côté de contenus compatibles avec leurs marques, c'est tout à fait normal, mais ce qui n'est pas normal, c'est d'insister pour qu'il n'y ait pas de contenus avec lesquels ils ne sont pas d'accord sur la plateforme... La liberté d'expression est le fondement de la démocratie et pour que X soit la place publique du monde, elle doit être une plateforme de liberté d'expression - dans les limites de la loi. Je pense qu'il est impératif que les gens aient le droit de s'exprimer. »
À la question de savoir si, en tant que patron de X, il regrettait certains de ses propres commentaires sur la plateforme dans le passé, Musk a répondu : « Je me tire une balle dans le pied de temps en temps, mais au moins vous savez que c'est authentique, pas une sorte de relations publiques. Si vous parlez librement, il y aura des moments où vous serez stupide, bien sûr, mais si vous passez constamment par un filtre, vous n'êtes pas réel, alors je suppose qu'il vaut mieux être réel que de passer par un filtre ».
Il a souligné qu'il pensait que la plateforme restait le meilleur moyen pour quiconque dans le monde d'atteindre non seulement les influenceurs, mais aussi les "intellectuels".
« Si vous voulez atteindre les personnes les plus influentes du monde, pas seulement les influenceurs des médias sociaux, mais en fait (ceux) qui dirigent des entreprises, des pays, et les intellectuels du monde, les gens qui écrivent, la plateforme X est de loin la meilleure », a-t-il déclaré. « C'est presque le seul moyen d'atteindre ces personnes. Ils ne regardent pas la télévision, ils ne font pas de vidéos TikTok. X est plus petite que les autres plateformes de médias sociaux, mais ce sont les personnes les plus influentes au monde, donc si vous voulez les atteindre, c'est le meilleur endroit pour le faire. »
À l'approche des élections présidentielles américaines, M. Musk a déclaré qu'il accueillerait volontiers tout débat sur la plateforme X. Il ne s'est toutefois pas penché sur la discussion politique, se contentant de dire que « cela va être intéressant ».
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
Voir aussi :
:fleche: Pour Elon Musk l'IA est bien plus dangereuse que l'arme nucléaire, alors que Bill Gates estime que l'IA est à la fois porteuse d'espoir et dangereuse
:fleche: Elon Musk considère l'IA comme un risque fondamental pour l'existence de la civilisation humaine et sa colonisation de Mars comme un plan de secours
3 pièce(s) jointe(s)
SB-1047 : la Californie vise à prévenir les catastrophes potentielles liées à l'IA armée de son projet de loi
SB-1047 : la Californie vise à prévenir les catastrophes potentielles liées à l'IA armée de son projet de loi,
mais les critiques craignent que l'accent mis sur les potentielles menaces de futures IA ne nuise à la recherche
La loi californienne « Safe and Secure Innovation for Frontier Artificial Intelligence Models Act » (alias SB-1047) a fait couler beaucoup d'encre et suscité un débat sur la « sécurité » générale des grands modèles d'intelligence artificielle. Bien que le projet de loi vise à prévenir les catastrophes potentielles liées à l’IA, les critiques craignent que l'accent exagéré mis par le projet de loi sur les menaces existentielles posées par les futurs modèles d'intelligence artificielle ne limite considérablement la recherche et le développement d'utilisations plus prosaïques et non menaçantes de l'intelligence artificielle aujourd'hui.
Le 7 février 2024, le Safe and Secure Innovation for Frontier Artificial Intelligence Systems Act (SB 1047) a été présenté au Sénat californien. Le projet de loi vise à imposer une diligence raisonnable, des tests et des conclusions supplémentaires pour certains modèles d'intelligence artificielle couverts avant leur utilisation commerciale, publique ou à grande échelle.
La proposition de loi impose aux développeurs de systèmes d'intelligence artificielle de s'assurer que leurs modèles ne possèdent pas de capacités dangereuses, telles que la création d'armes biologiques ou nucléaires ou l'aide aux attaques de cybersécurité. Le projet de loi, qui a déjà été adopté par le Sénat de l'État le 21 mai 2024 et devrait être soumis au vote de l'assemblée générale en août, exige également des développeurs qu'ils rendent compte de leurs tests de sécurité et qu'ils mettent en place un « interrupteur d'arrêt » pour désactiver leurs modèles en cas de besoin.
Le projet de loi vise les grandes start-ups d'IA comme OpenAI, Anthropic et Cohere, ainsi que les grands modèles de langage des géants de la technologie tels que Meta. Le sénateur démocrate de l'État, Scott Wiener, qui a présenté le projet de loi, a souligné la nécessité de mesures de sécurité proactives en déclarant : « Fondamentalement, je souhaite que l'IA réussisse et que l'innovation se poursuive, mais essayons d'anticiper tout risque en matière de sécurité ». Il a décrit le projet de loi comme une mesure « légère » visant à garantir des évaluations de sécurité de base et l'atténuation des risques.
Un cadre juridique qui s'articule autour des « incidents de sécurité », entre autres ceux causés par l'IA... de son propre chef
Il a été adopté par le Sénat de Californie en mai par 32 voix contre 1 et semble bien placé pour un vote final à l'Assemblée de l'État au mois d'août. Le texte du projet de loi exige que les entreprises à l'origine de modèles d'IA suffisamment importants (actuellement fixés à 100 millions de dollars en coûts de formation et à la puissance de calcul approximative qu'impliquent ces coûts aujourd'hui) mettent en place des procédures et des systèmes de test pour prévenir et réagir aux « incidents de sécurité ».
Le projet de loi donne une définition juridique de ces incidents de sécurité qui, à son tour, se concentre sur la définition d'un ensemble de « dommages critiques » qu'un système d'IA pourrait permettre. Il s'agit notamment de préjudices entraînant « des pertes massives ou des dommages d'au moins 500 millions de dollars », tels que « la création ou l'utilisation d'une arme chimique, biologique, radiologique ou nucléaire » ou « des instructions précises pour mener une cyberattaque [...] sur une infrastructure critique ». Le projet de loi fait également allusion à « d'autres préjudices graves pour la sécurité publique qui sont d'une gravité comparable » à ceux énoncés explicitement.
Le créateur d'un modèle d'IA ne peut être tenu responsable des dommages causés par le partage d'informations « accessibles au public » provenant de l'extérieur du modèle - le simple fait de demander à un LLM de résumer The Anarchist Cookbook (Le Livre de recettes anarchistes, un livre de l'écrivain américain William Powell rédigé comme manifeste contre le gouvernement des États-Unis et la guerre du Viet Nam) ne le mettrait probablement pas en infraction avec la loi, par exemple. Le projet de loi semble plutôt se préoccuper des futures IA qui pourraient créer de « nouvelles menaces pour la sûreté et la sécurité publiques ». Plus qu'un humain utilisant une IA pour trouver des idées nuisibles, SB-1047 se concentre sur l'idée d'une IA « s'engageant de manière autonome dans un comportement autre que celui demandé par un utilisateur » tout en agissant « avec une surveillance, une intervention ou une supervision humaine limitée ».
Pour éviter cette éventualité digne de la science-fiction, toute personne entraînant un modèle suffisamment grand doit « mettre en œuvre la capacité de procéder rapidement à un arrêt complet » et mettre en place des politiques pour déterminer quand un tel arrêt serait effectué, parmi d'autres précautions et tests. Le projet de loi met également l'accent sur des actions de l'IA qui nécessiteraient « une intention, une imprudence ou une négligence grave » si elles étaient effectuées par un humain, ce qui suggère un degré d'autonomie qui n'existe pas dans les grands modèles de langage d'aujourd'hui.
Pièce jointe 657714
Scott Wiener, législateur démocrate au Sénat de l'État de Californie, propose une législation visant à réglementer l'IA
Skynet, les origines ?
Ce type de formulation dans le projet de loi reflète probablement les craintes particulières de son rédacteur initial, le cofondateur du Center for AI Safety (CAIS), Dan Hendrycks. Dans un article paru dans Time Magazine en 2023, Hendrycks avance l'argument existentiel maximaliste selon lequel « les pressions évolutives inculqueront probablement aux IA des comportements favorisant l'auto-préservation » et conduiront à « une voie vers leur supplantation en tant qu'espèce dominante de la Terre ».
Si Hendrycks a raison, une loi comme la SB-1047 semble être une précaution de bon sens - en fait, elle pourrait ne pas aller assez loin. Les partisans du projet de loi, dont Geoffrey Hinton et Yoshua Bengio, sommités de l'IA, sont d'accord avec Hendrycks pour dire que le projet de loi est une étape nécessaire pour prévenir les dommages catastrophiques potentiels causés par les systèmes d'IA avancés.
« Les systèmes d'IA dépassant un certain niveau de capacité peuvent poser des risques significatifs pour les démocraties et la sécurité publique », a écrit Bengio dans un soutien au projet de loi. « C'est pourquoi ils doivent être testés correctement et soumis à des mesures de sécurité appropriées. Ce projet de loi propose une approche pratique pour y parvenir et constitue une étape importante vers les exigences que j'ai recommandées aux législateurs ».
Cependant, les critiques soutiennent que la politique en matière d'IA ne devrait pas être guidée par des craintes farfelues de systèmes futurs qui ressemblent plus à de la science-fiction qu'à des technologies actuelles. « Le SB-1047 a été rédigé à l'origine par des groupes à but non lucratif qui croient à la fin du monde par une machine sensible, comme le Center for AI Safety de Dan Hendrycks », a déclaré Daniel Jeffries, une voix éminente dans la communauté de l'IA. « Vous ne pouvez pas partir de ce postulat et créer un projet de loi de sécurité sain, solide et léger ».
« Si nous voyons ici un comportement de recherche de pouvoir, ce n'est pas de la part des systèmes d'IA, mais des prophètes de malheur de l'IA », a ajouté l'expert en politique technologique Nirit Weiss-Blatt. « Avec leurs peurs fictives, ils tentent de faire passer une législation fictive qui, selon de nombreux experts en IA et défenseurs de l'open source, pourrait ruiner l'avantage technologique de la Californie et des États-Unis. »
L'opposition de l'industrie
La proposition de loi a suscité une vive opposition de la part de l'industrie technologique, en particulier dans la Silicon Valley. Ses détracteurs estiment qu'elle pourrait étouffer l'innovation et pousser les jeunes pousses de l'IA à quitter la Californie. Andrew Ng, éminent informaticien et membre du conseil d'administration d'Amazon, a critiqué le projet de loi en déclarant : « Si quelqu'un voulait élaborer des réglementations pour étouffer l'innovation, il pourrait difficilement faire mieux. Il crée des responsabilités massives pour des risques de science-fiction, et alimente ainsi la peur chez tous ceux qui osent innover ».
Arun Rao, chef de produit pour l'IA générative chez Meta, a également fait part de ses inquiétudes, qualifiant le projet de loi « d'irréalisable » et avertissant qu'il pourrait « mettre fin à l'open source en [Californie] ». Il a ajouté que l'impact économique pourrait être substantiel, coûtant potentiellement des milliards lorsque les entreprises et les travailleurs hautement rémunérés quitteront l'État.
Malgré les réactions négatives, Wiener reste attaché au projet de loi, déclarant : « Il s'agit du secteur technologique, qui n'aime pas les réglementations, et je ne suis donc pas du tout surpris qu'il y ait des réactions négatives ». Il a également fait part de son intention d'amender le projet de loi afin d'en clarifier le champ d'application, notamment en exemptant les modèles open source de l'obligation de « kill switch » et en limitant l'application du projet de loi aux grands modèles dont la formation a coûté au moins 100 millions de dollars.
Un contexte réglementaire plus large
Le débat sur la réglementation de l'IA ne se limite pas à la Californie. Les gouvernements du monde entier s'efforcent de gérer les progrès rapides de la technologie de l'IA. En octobre, le président américain Joe Biden a publié un décret visant à établir de nouvelles normes en matière de sûreté de l'IA et de sécurité nationale, à protéger les citoyens contre les risques d'atteinte à la vie privée liés à l'IA et à lutter contre la discrimination algorithmique. Le gouvernement britannique a également présenté des projets de réglementation de l'IA, et l'Union européenne a adopté une législation complète visant à mettre en place des garde-fous pour cette technologie.
Edward Snowden, le lanceur d'alerte qui a révélé les programmes de surveillance mondiale du gouvernement américain, s'est exprimé sur la question lors d'un appel vidéo à l'occasion de l'événement SuperAI à Singapour. Il a mis en garde contre une réglementation excessive en déclarant : « Nous assistons à la naissance d'un enfant doté d'une technologie entièrement nouvelle, et nous voyons déjà les loups-garous commencer à tourner en rond. » Snowden s'est dit préoccupé par le fait que les efforts de réglementation pourraient étouffer le potentiel de l'IA, ajoutant : « La panique liée à la sécurité de l'IA en général est quelque chose qui me pose problème. »
La croissance rapide et l'énorme potentiel de l'IA ont suscité des inquiétudes quant à la sécurité de cette technologie. L'année dernière, le milliardaire Elon Musk, investisseur de la première heure dans la société OpenAI, productrice de ChatGPT, l'a qualifiée de « menace existentielle » pour l'humanité. Cette semaine, un groupe d'anciens et d'actuels employés d'OpenAI a publié une lettre ouverte dans laquelle ils avertissent que les « entreprises d'IA pionnières » ne sont pas suffisamment surveillées par les gouvernements et qu'elles posent de « graves risques » pour l'humanité.
Sources : SB 1047, Yoshua Bengio, Dan Hendrycks
Et vous ?
:fleche: Quels sont les avantages et les inconvénients de la réglementation de l’IA ? Pensez aux effets positifs et négatifs de la loi sur l’innovation, la sécurité et la protection du public.
:fleche: Quelles sont les limites de la définition des « dommages critiques » dans le projet de loi ? Explorez si cette définition est suffisamment large pour couvrir tous les scénarios possibles ou si elle pourrait exclure certains risques.
:fleche: Comment pouvons-nous équilibrer la sécurité et l’innovation dans le domaine de l’IA ? Partagez vos idées sur la manière dont nous pouvons protéger la société tout en favorisant le développement technologique.
:fleche: Quelles autres mesures pourraient être prises pour prévenir les catastrophes liées à l’IA ? Réfléchissez aux solutions alternatives ou complémentaires pour garantir la sécurité tout en encourageant l’exploration de l’IA.