IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Un juge bloque la nouvelle loi californienne sur l'IA dans l'affaire du deepfake sur Kamala Harris


Sujet :

Intelligence artificielle

  1. #121
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 014
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 014
    Points : 208 443
    Points
    208 443
    Par défaut Google, OpenAI et d'autres s'opposent au projet de loi californien visant à réguler le développement de l'IA
    Google, OpenAI et d'autres s'opposent au projet de loi californien SB 1047 visant à réguler le développement de l'IA
    arguant qu’il pourrait freiner l’innovation

    Un projet de loi en Californie, visant à réguler le développement des modèles d’intelligence artificielle (IA), a déclenché une vive controverse à Silicon Valley. Le projet de loi SB 1047, également connu sous le nom de “Safe and Secure Innovation for Frontier Artificial Intelligence Models Act”, propose des mesures strictes pour garantir la sécurité des modèles d’IA avancés. Cependant, des géants de la technologie comme Google et OpenAI s’y opposent fermement, arguant qu’il pourrait freiner l’innovation.

    Le projet de loi sur la sécurité de l'IA, SB 1047, imposerait davantage de responsabilités à tout développeur dépensant plus de 100 millions de dollars pour construire un modèle d'IA. Les exigences comprennent des tests de sécurité, la mise en œuvre de mesures de protection et la possibilité pour le procureur général de l'État de prendre des mesures à l'encontre du développeur de tout modèle d'IA qui cause un « préjudice grave », tel que des pertes massives ou des incidents entraînant des dommages d'une valeur de 500 millions de dollars ou plus.

    Les entreprises doivent accepter de se soumettre à des audits par des tiers et mettre en place un dispositif permettant de désactiver la technologie à tout moment. Le projet de loi propose également des protections pour les dénonciateurs.

    Le sénateur de l'État de Californie Scott Wiener, coauteur du projet de loi, a accusé certains opposants de « semer la peur » pour tenter d'empêcher l'adoption de la législation de l'État.

    « Il y a eu beaucoup de drames, de déclarations dramatiques et d'inexactitudes de la part de certains opposants », a déclaré Wiener. « Les grands laboratoires se sont engagés à plusieurs reprises et de manière véhémente à effectuer des évaluations de la sécurité de leurs grands modèles, et c'est ce que ce projet de loi exige. Il s'agit de prendre un engagement volontaire et de le rendre obligatoire ».

    OpenAI entre dans la danse

    OpenAI a critiqué le projet de loi qui vise à garantir que l'intelligence artificielle puissante soit déployée en toute sécurité et a suggéré que de nouveaux contrôles menaceraient sa croissance dans l'État, se joignant à une frénésie de lobbying de dernière minute par les investisseurs et les groupes d'IA pour bloquer la législation.

    Le projet de loi SB 1047 menace « le statut unique de la Californie en tant que leader mondial de l'intelligence artificielle », a écrit Jason Kwon, directeur de la stratégie de l'entreprise, dans une lettre adressée à Scott Wiener, le sénateur de l'État de Californie à l'origine du projet de loi. Il ajoute que cela pourrait « ralentir le rythme de l'innovation et inciter les ingénieurs et les entrepreneurs californiens de classe mondiale à quitter l'État à la recherche de meilleures opportunités ailleurs ».

    Le projet de loi SB 1047 a divisé la Silicon Valley. Si la nécessité de limiter les risques liés aux nouveaux modèles d'IA puissants est largement admise, les critiques ont fait valoir que les propositions de Wiener étoufferaient les start-ups, profiteraient aux rivaux américains et compromettraient la position centrale de la Californie dans l'essor de l'IA.

    OpenAI est la dernière start-up à s'opposer à des éléments du projet de loi, et la plus importante, en grande partie grâce à la popularité de son chatbot ChatGPT et à un engagement de 13 milliards de dollars de la part de son partenaire Microsoft. OpenAI soutient les dispositions visant à garantir que les systèmes d'IA sont développés et déployés en toute sécurité, mais affirme dans la lettre que la législation devrait venir du gouvernement fédéral, et non des États individuels.


    Un projet de loi « bien intentionné mais mal informé », selon Nancy Pelosi

    Dans une réponse mercredi, Wiener a souligné qu'OpenAI ne « critique pas une seule disposition du projet de loi ». Il ajoute que l'affirmation de la société selon laquelle les entreprises quitteront la Californie à cause du SB 1047 « n'a aucun sens étant donné que le SB 1047 n'est pas limité aux entreprises ayant leur siège en Californie ». En effet, le projet de loi SB 1047 concerne tous les développeurs de modèles d'IA qui exercent leurs activités en Californie et qui atteignent certains seuils de taille. En d'autres termes, qu'une entreprise d'IA soit basée à San Jose ou à San Antonio, si elle laisse les Californiens utiliser ses produits, elle sera soumise à ces restrictions.

    Wiener a également déclaré qu'il était d'accord pour que le gouvernement fédéral prenne l'initiative, mais qu'il était « sceptique » quant à la volonté du Congrès d'agir. Il a également critiqué « l'argument éculé » selon lequel les jeunes entreprises technologiques se délocaliseraient si le projet de loi était adopté et a déclaré que les entreprises basées en dehors de l'État devraient toujours se conformer au projet de loi pour faire des affaires au niveau local.

    L'assemblée de l'État de Californie devrait voter sur le projet de loi d'ici la fin de la semaine. S'il est adopté, le gouverneur Gavin Newsom décidera alors de la signer ou d'y opposer son veto.

    Les groupes technologiques et les investisseurs de la Silicon Valley, dont Anthropic, Andreessen Horowitz et YCombinator, ont intensifié leur campagne de lobbying contre les propositions de Wiener en faveur d'un cadre de sécurité strict. Nancy Pelosi, ancienne présidente de la Chambre des représentants et représentante de la Californie, a également publié la semaine dernière une déclaration d'opposition au projet de loi, le qualifiant de « bien intentionné mais mal informé ».

    Parmi les éléments les plus controversés des propositions initiales du sénateur figuraient l'obligation pour les entreprises d'IA de garantir à un nouvel organisme public qu'elles ne développeront pas de modèles dotés d'une « capacité dangereuse » et de créer un « interrupteur d'arrêt » pour désactiver leurs modèles puissants.

    Les opposants ont affirmé que le projet de loi se concentrait sur des risques hypothétiques et ajoutait un risque de responsabilité « extrême » pour les fondateurs.

    Nom : open.png
Affichages : 6934
Taille : 524,2 Ko

    Le soutien au projet de loi

    La semaine dernière, le projet de loi a été modifié pour assouplir certaines de ces exigences, notamment en limitant les responsabilités civiles qu'il avait initialement imposées aux développeurs d'IA et en réduisant le champ d'application de ces règles.

    Toutefois, les critiques affirment que le projet de loi impose toujours aux jeunes entreprises des exigences onéreuses et parfois irréalistes. Lundi, Anna Eshoo et Zoe Lofgren, membres de la Chambre des représentants des États-Unis, ont écrit dans une lettre à Robert Rivas, président de l'assemblée californienne, qu'il y avait « encore des problèmes substantiels avec la structure sous-jacente du projet de loi », appelant plutôt à « se concentrer sur les règles fédérales pour contrôler les outils physiques nécessaires à la création de ces menaces physiques ».

    Malgré les critiques formulées par d'éminents universitaires spécialisés dans l'IA, tels que Fei-Fei Li et Andrew Ng, de Stanford, qui ont dirigé des projets d'IA chez Google (Alphabet) et Baidu (Chine), le projet de loi a reçu le soutien de certains « parrains de l'IA », tels que Geoffrey Hinton, de l'université de Toronto, et Yoshua Bengio, professeur d'informatique à l'université de Montréal.

    « En résumé, le SB 1047 est un projet de loi très raisonnable : SB 1047 est un projet de loi très raisonnable qui demande aux grands laboratoires d'IA de faire ce qu'ils se sont déjà engagés à faire, à savoir tester leurs grands modèles pour détecter les risques de sécurité catastrophiques », a écrit Wiener mercredi.

    Lundi, Elon Musk (propriétaire de la grande entreprise de modèles d'IA xAI) s'est prononcé en faveur du projet de loi, en postant sur X « C'est une décision difficile et qui va contrarier certaines personnes, mais, tout bien considéré, je pense que la Californie devrait probablement adopter le projet de loi SB 1047 sur la sécurité de l'IA. Depuis plus de 20 ans, je plaide en faveur d'une réglementation de l'IA, tout comme nous réglementons tout produit/technologie présentant un risque potentiel pour le public ».

    Un équilibre délicat

    Le débat autour du projet de loi SB 1047 met en lumière le défi de trouver un équilibre entre la promotion de l’innovation et la garantie de la sécurité. Alors que certains voient dans ce projet de loi une menace pour l’innovation, d’autres y voient une étape cruciale pour prévenir les risques potentiels associés à l’IA. Les partisans du projet de loi soutiennent que sans régulation, les modèles d’IA pourraient causer des dommages irréparables, tant sur le plan individuel que sociétal.

    Un contexte réglementaire plus large

    Le débat sur la réglementation de l'IA ne se limite pas à la Californie. Les gouvernements du monde entier s'efforcent de gérer les progrès rapides de la technologie de l'IA. En octobre, le président américain Joe Biden a publié un décret visant à établir de nouvelles normes en matière de sûreté de l'IA et de sécurité nationale, à protéger les citoyens contre les risques d'atteinte à la vie privée liés à l'IA et à lutter contre la discrimination algorithmique. Le gouvernement britannique a également présenté des projets de réglementation de l'IA, et l'Union européenne a adopté une législation complète visant à mettre en place des garde-fous pour cette technologie.

    Edward Snowden, le lanceur d'alerte qui a révélé les programmes de surveillance mondiale du gouvernement américain, s'est exprimé sur la question lors d'un appel vidéo à l'occasion de l'événement SuperAI à Singapour. Il a mis en garde contre une réglementation excessive en déclarant : « Nous assistons à la naissance d'un enfant doté d'une technologie entièrement nouvelle, et nous voyons déjà les loups-garous commencer à tourner en rond. » Snowden s'est dit préoccupé par le fait que les efforts de réglementation pourraient étouffer le potentiel de l'IA, ajoutant : « La panique liée à la sécurité de l'IA en général est quelque chose qui me pose problème. »

    La croissance rapide et l'énorme potentiel de l'IA ont suscité des inquiétudes quant à la sécurité de cette technologie. L'année dernière, le milliardaire Elon Musk, investisseur de la première heure dans la société OpenAI, productrice de ChatGPT, l'a qualifiée de « menace existentielle » pour l'humanité. Plus tôt cette année, un groupe d'anciens et d'actuels employés d'OpenAI a publié une lettre ouverte dans laquelle ils avertissent que les « entreprises d'IA pionnières » ne sont pas suffisamment surveillées par les gouvernements et qu'elles posent de « graves risques » pour l'humanité.

    Sources : le sénateur répond aux préoccupations d'OpenAI, vidéo dans le texte, Nancy Pelosi, lettre ouverte d'Anthropic

    Et vous ?

    Pensez-vous que les mesures de sécurité proposées dans le projet de loi sont suffisantes pour prévenir les risques liés à l’IA ? Pourquoi ou pourquoi pas ?
    Comment les startups et les petites entreprises peuvent-elles s’adapter aux exigences du projet de loi sans compromettre leur capacité à innover ?
    Selon vous, quelles pourraient être les conséquences à long terme de l’absence de régulation stricte de l’IA ?
    Le projet de loi pourrait-il inspirer d’autres États ou pays à adopter des régulations similaires ? Quels en seraient les impacts ?
    Comment équilibrer la nécessité de réguler l’IA pour garantir la sécurité tout en favorisant l’innovation technologique ?
    Quels autres aspects de l’IA devraient être pris en compte dans les régulations futures ?
    Pensez-vous que les grandes entreprises technologiques ont trop d’influence sur les décisions politiques concernant l’IA ? Pourquoi ou pourquoi pas ?
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #122
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 693
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 693
    Points : 118 382
    Points
    118 382
    Par défaut Le projet de loi californien sur l'IA est adopté par l'assemblée législative, même s'il est contesté
    Le projet de loi controversé sur l'IA en Californie est adopté par l'assemblée législative et attend la signature du gouverneur, alors que Google et OpenAI s'y opposent fermement

    Le projet de loi controversé sur l'IA en Californie prévoit des tests de sécurité pour les modèles d'IA avancés. Il a été adopté par l'assemblée législative et doit maintenant être signé par le gouverneur de Californie. Les entreprises technologiques, notamment Google, Meta et OpenAI, s'y opposent largement, arguant qu'il pourrait freiner l'innovation.

    Un projet de loi en Californie, visant à réguler le développement des modèles d’intelligence artificielle (IA), a déclenché une vive controverse à Silicon Valley. Le projet de loi, connu sous le nom de "Safe and Secure Innovation for Frontier Artificial Intelligence Models Act", propose des mesures strictes pour garantir la sécurité des modèles d’IA avancés. Le projet de loi imposerait davantage de responsabilités, notamment des tests de sécurité et la mise en œuvre de mesures de protection. Les entreprises doivent également accepter de se soumettre à des audits par des tiers.

    Les législateurs californiens ont adopté ce projet de loi très controversé sur la sécurité de l'IA, qui devait encore faire l'objet d'un vote avant d'être remis entre les mains du gouverneur. Le gouverneur Gavin Newsom a jusqu'au 30 septembre pour décider de le promulguer ou d'y opposer son veto.


    Les entreprises technologiques qui développent l'IA générative - capable de répondre à des messages sous forme de texte, d'images ou de sons entièrement formés et d'exécuter des tâches répétitives avec un minimum d'intervention - se sont largement opposées à cette loi, appelée SB 1047, estimant qu'elle pourrait pousser les entreprises d'IA à quitter l'État et à entraver l'innovation.

    Certains démocrates du Congrès américain, dont la représentante Nancy Pelosi, s'y sont également opposés. Parmi les partisans de cette mesure figure le PDG de Tesla, Elon Musk, qui dirige également une entreprise d'IA appelée xAI et a déclaré qu'il soutenait le projet de loi.

    La mesure impose des tests de sécurité pour un grand nombre des modèles d'IA les plus avancés dont le développement coûte plus de 100 millions de dollars ou qui nécessitent une quantité définie de puissance de calcul. Les développeurs de logiciels d'IA opérant dans l'État doivent également présenter des méthodes permettant de désactiver les modèles d'IA en cas de dérapage, ce qui revient à mettre en place un interrupteur d'arrêt.

    Le projet de loi donne également au procureur général de l'État le pouvoir d'intenter des poursuites si les développeurs ne se conforment pas à la loi, en particulier en cas de menace permanente, par exemple si l'IA prend le contrôle de systèmes gouvernementaux tels que le réseau électrique. En outre, le projet de loi exige des développeurs qu'ils engagent des auditeurs tiers pour évaluer leurs pratiques en matière de sécurité et offre des protections supplémentaires aux dénonciateurs qui dénoncent les abus de l'IA.


    L'auteur du projet de loi, le sénateur démocrate Scott Wiener, représente la ville de San Francisco, où se trouvent OpenAI et de nombreuses start-ups qui développent ce puissant logiciel. Il a déclaré qu'il était nécessaire de légiférer pour protéger le public avant que les progrès de l'IA ne deviennent trop lourds ou incontrôlables.

    Martin Casado, associé général de la société de capital-risque Andreessen Horowitz, a déclaré avant le vote qu'il espérait que M. Newsom opposerait son veto. "Il s'agit de l'opposition la plus large et la plus bipartisane que j'aie jamais vue", a-t-il déclaré.

    Google d'Alphabet, OpenAI, soutenu par Microsoft, et Meta Platforms ont exprimé leurs préoccupations dans des lettres adressées à M. Wiener. Anthropic, soutenu par Amazon, a déclaré que les avantages du projet de loi l'emportaient probablement sur les coûts, bien qu'il ait ajouté que certains aspects semblaient encore préoccupants ou ambigus.

    Et vous ?

    Pensez-vous que ce projet de loi est crédible ou pertinent ?
    Quel est votre avis sur la suite de cette affaire ?

    Voir aussi :

    Le projet de loi californien sur l'IA menace-t-il l'innovation ou protège-t-il la société ? Google, Meta et OpenAI s'y opposent, arguant qu'il pourrait freiner l'innovation, tandis qu'Elon Musk le soutient

    Les Big Tech (GAFAM) veulent réglementer l'IA, mais les autres entrepreneurs sont sceptiques. Selon eux leur réelle volonté serait juste de geler le marché de l'IA pour conserver leur monopole

    AI Act : les nouvelles règles européennes en matière d'intelligence artificielle entrent en vigueur. L'objectif déclaré est d'encourager le développement et l'adoption de systèmes IA sûrs et fiables en UE

    Exode chez OpenAI : près de la moitié du personnel chargé de la sécurité de l'AGI a quitté l'entreprise. Sam Altman, qui a réclamé une réglementation de l'IA, s'y oppose lorsqu'elle est implémentée
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  3. #123
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 014
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 014
    Points : 208 443
    Points
    208 443
    Par défaut Les États-Unis, le Royaume-Uni et l'Union européenne signent un traité juridiquement contraignant sur l'IA
    Les États-Unis, le Royaume-Uni et l'Union européenne signent le premier traité juridiquement contraignant sur l'IA
    visant à promouvoir le progrès tout en gérant les risques potentiels de l’IA

    Dans une avancée historique pour la gouvernance mondiale de l’intelligence artificielle (IA), les États-Unis, le Royaume-Uni et l’Union Européenne ont signé le premier traité international juridiquement contraignant sur l’IA. Ce traité, élaboré sous l’égide du Conseil de l’Europe, vise à garantir que l’utilisation de l’IA respecte les droits de l’homme, la démocratie et l’état de droit.

    Contexte et objectifs du traité

    Le traité, signé le 5 septembre 2024 à Vilnius, en Lituanie, marque une étape cruciale dans la régulation de l’IA. Il s’agit de la première convention internationale qui impose des obligations légales aux signataires pour encadrer le cycle de vie complet des systèmes d’IA. L’objectif principal est de promouvoir le progrès et l’innovation tout en gérant les risques potentiels que l’IA peut poser aux droits de l’homme, à la démocratie et à l’état de droit.

    « La Convention-cadre du Conseil de l’Europe sur l’intelligence artificielle et les droits de l’homme, la démocratie et l’État de droit est le premier instrument international juridiquement contraignant dans ce domaine. Elle vise à garantir que les activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle sont pleinement compatibles avec les droits humains, la démocratie et l’État de droit, tout en étant propice au progrès et aux innovations technologiques.

    « La Convention-cadre complémente les normes internationales existantes relatives aux droits humains, à la démocratie et à l’État de droit, et a pour but de palier à tout vide juridique qui pourrait résulter des avancées technologiques rapides. Afin de résister au temps, la Convention-cadre ne régule pas la technologie et est essentiellement neutre sur le plan technologique ».

    Le premier traité international juridiquement contraignant sur l'IA

    Les droits de l'homme, la démocratie et l'État de droit seront davantage protégés contre les menaces potentielles posées par l'intelligence artificielle (IA) en vertu d'un nouvel accord international. Le nouveau cadre adopté par le Conseil de l'Europe engage les parties à prendre des mesures collectives pour gérer les produits de l'IA et protéger le public d'une éventuelle utilisation abusive.

    L'IA est susceptible d'apporter des avantages significatifs, tels que la stimulation de la productivité et l'augmentation des taux de détection du cancer. Toutefois, la nouvelle convention prévoit d'importantes mesures de protection contre les risques qu'elle comporte, tels que la diffusion de fausses informations ou l'utilisation de données biaisées susceptibles d'influer sur les décisions.

    Le traité garantira que les pays surveillent son développement et que toute technologie soit gérée dans le cadre de paramètres stricts. Il comprend des dispositions visant à protéger le public et ses données, les droits de l'homme, la démocratie et l'État de droit. Il engage également les pays à prendre des mesures contre les activités qui ne respectent pas ces paramètres afin de lutter contre l'utilisation abusive des modèles d'IA qui présentent un risque pour les services publics et le grand public.

    La Convention-cadre a été signée par Andorre, la Géorgie, l’Islande, la Norvège, la République de Moldova, Saint-Marin, le Royaume-Uni ainsi qu’Israël, les États-Unis d’Amérique et l’Union européenne.

    « Nous devons faire en sorte que l’essor de l’intelligence artificielle se fasse au service et dans le respect de nos normes, et non pas à leur détriment. La Convention-cadre a été conçue dans cette optique. Ce texte solide et équilibré est le fruit de l’approche ouverte et inclusive qui a présidé à sa rédaction et qui a permis de s’assurer qu’il bénéficie des points de vue d’un vaste éventail de spécialistes. La Convention-cadre est un traité ouvert, de portée potentiellement mondiale. J’espère que ces signatures seront les premières d’une longue série et qu’elles seront rapidement suivies de ratifications, afin que le traité puisse entrer en vigueur dans les meilleurs délais » a déclaré la Secrétaire Générale du Conseil de l’Europe, Marija Pejčinović Burić.

    Le traité établit un cadre juridique qui couvre l’ensemble du cycle de vie des systèmes d’intelligence artificielle. Il encourage le progrès et l’innovation dans ce domaine tout en atténuant les risques que l’IA peut poser pour les droits humains, la démocratie et l’État de droit. Pour résister à l’épreuve du temps, ce traité est neutre sur le plan technologique.

    La Convention-cadre a été adoptée par le Comité des Ministres du Conseil de l’Europe le 17 mai 2024. Les 46 États membres du Conseil de l’Europe, l’Union européenne ainsi que 11 États non membres (l’Argentine, l’Australie, le Canada, le Costa Rica, les États-Unis d’Amérique, Israël, le Japon, le Mexique, le Pérou, le Saint-Siège et l’Uruguay) ont participé à la négociation du traité. Des représentant·es du secteur privé, de la société civile et du monde universitaire y ont contribué en qualité d’observateurs.

    Le traité entrera en vigueur le premier jour du mois qui suit l’expiration d’une période de trois mois après la date à laquelle cinq signataires, dont au moins trois États membres du Conseil de l’Europe, l’auront ratifié. Les pays du monde entier pourront y adhérer et s’engager à en respecter les dispositions.

    Nom : signe.png
Affichages : 6629
Taille : 595,5 Ko

    Quelles sont les obligations des états en vertu de la Convention-cadre ?

    Les signataires du traité s’engagent à adopter ou à maintenir des mesures garantissant que l’utilisation de l’IA est conforme aux valeurs fondamentales de la société. Les principaux engagements incluent :
    • Protection des droits de l’homme : Assurer que les données des individus sont utilisées de manière appropriée, que leur vie privée est respectée et que l’IA ne discrimine pas.
    • Préservation de la démocratie : Prendre des mesures pour empêcher que les institutions et processus publics ne soient compromis par l’IA.
    • Respect de l’état de droit : Réguler les risques spécifiques à l’IA, protéger les citoyens contre les dommages potentiels et garantir une utilisation sûre de la technologie

    Il faut noter qu'il y a d'autres axes, notamment :
    • des recours, droits procéduraux et garanties :
      • Documenter les informations pertinentes concernant les systèmes d’IA et leur utilisation, et les mettre à la disposition des personnes concernées ;
      • Les informations doivent être suffisantes pour permettre aux personnes concernées de contester la ou les décisions prises par le biais de l’utilisation du système ou fondées en grande partie sur celui-ci, et de contester l’utilisation du système lui-même ;
      • Possibilité effective de former un recours auprès des autorités compétentes ;
      • Mise à disposition des personnes affectées de garanties, de protections et de droits procéduraux effectifs lorsqu’un système d’intelligence artificielle a un impact significatif sur la jouissance des droits humains et des libertés fondamentales ;
      • Notification aux personnes concernées du fait qu’elles interagissent avec des systèmes d’intelligence artificielle et non avec un humain.
    • des exigences en matière de gestion des risques et des impacts
      • Conduite d’évaluations des risques et des impacts, qu’ils soient réels ou potentiels sur les droits humains, la démocratie et l’État de droit, menées de manière itérative ;
      • Mise en place des mesures de prévention et d’atténuation suffisantes résultant de la mise en œuvre de ces évaluations ;
      • Possibilité pour les autorités d’instaurer un moratoire ou une interdiction pour certaines utilisations de systèmes d’IA (« lignes rouges »).

    À qui s’applique la Convention-cadre ?

    La Convention-cadre couvre l’utilisation des systèmes d’IA par les pouvoirs publics – y compris les acteurs privés qui agissent pour leur compte – et les acteurs privés.

    La Convention-cadre offre aux Parties deux modalités pour se conformer à ses principes et obligations pour la régulation du secteur privé : elles peuvent choisir d’être directement obligées par les dispositions pertinentes de la Convention-cadre, ou de prendre d’autres mesures pour se conformer aux dispositions du traité tout en respectant pleinement leurs obligations internationales en matière de droits de l’homme, de démocratie et d’État de droit.

    Les Parties à la Convention-cadre ne sont pas tenues d’appliquer les dispositions du traité aux activités liées à la protection de leurs intérêts de sécurité nationale, mais doivent veiller à ce que ces activités respectent le droit international et les institutions et processus démocratiques. La Convention-cadre ne s’applique pas aux questions de défense nationale ni aux activités de recherche et de développement, sauf lorsque les essais de systèmes d’intelligence artificielle risquent de porter atteinte aux droits de l’homme, à la démocratie ou à l’État de droit.

    Réactions et perspectives

    La signature de ce traité a été saluée comme une avancée majeure par de nombreux experts et responsables politiques. Marija Pejcinovic Buric, Secrétaire Générale du Conseil de l’Europe, a déclaré : « Nous devons nous assurer que l’essor de l’IA soutient nos normes, plutôt que de les saper ».

    Le Lord Chancellor et secrétaire d'État à la justice, Shabana Mahmood, a déclaré :

    « L'intelligence artificielle a la capacité d'améliorer radicalement la réactivité et l'efficacité des services publics et de donner un coup de fouet à la croissance économique.

    « Cependant, nous ne devons pas laisser l'IA nous façonner - nous devons façonner l'IA.

    « Cette convention est une étape importante pour garantir que ces nouvelles technologies puissent être exploitées sans éroder nos valeurs les plus anciennes, comme les droits de l'homme et l'État de droit ».

    Cependant, certains observateurs ont exprimé des préoccupations quant à l’applicabilité et à l’efficacité des dispositions du traité. Francesca Fanucci, experte juridique au Centre Européen pour le Droit des Organisations à but non lucratif, a souligné que certaines formulations du traité étaient trop larges et comportaient des exceptions pour les systèmes d’IA utilisés à des fins de sécurité nationale

    Pourquoi c'est important ? La signature de ce traité intervient à un moment où la sécurité de l'IA est un sujet brûlant

    En début d'année, il a été rapporté qu'OpenAI, parent du ChatGPT, a renforcé son équipe de lobbying afin d'élaborer des réglementations en matière d'IA dans un contexte de préoccupations croissantes en matière de sécurité.

    Notons d'ailleurs qu'OpenAI a supplié le Parlement britannique de l'autoriser à utiliser des œuvres protégées par le droit d'auteur, car il lui serait « impossible » d'entraîner ses modèles d'intelligence artificielle - et de poursuivre la croissance de son entreprise, qui pèse plusieurs milliards de dollars - sans ces œuvres.

    Le mois dernier, la législature californienne a approuvé un projet de loi controversé sur la sécurité de l'IA, qui s'est heurté à la résistance de l'industrie technologique. Selon le marché des prédictions Polymarket, le projet de loi, soutenu par Elon Musk, a 53 % de chances d'être signé par le gouverneur Gavin Newsom.

    Nom : poly.png
Affichages : 955
Taille : 48,9 Ko

    Conclusion

    Le traité sur l’IA signé par les États-Unis, le Royaume-Uni et l’Union Européenne représente une avancée significative vers une régulation mondiale de l’intelligence artificielle. En établissant des normes juridiquement contraignantes, ce traité vise à garantir que l’IA est développée et utilisée de manière éthique et responsable, tout en protégeant les valeurs fondamentales de la société.

    Sources : convention-cadre du Conseil de l'Europe sur l'intelligence artificielle et les droits de l’homme, Commission européenne, gouvernement britannique, PolyMarket, le Conseil de l’Europe ouvre à la signature le premier traité mondial sur l’IA

    Et vous ?

    Pensez-vous que ce traité est suffisant pour encadrer les risques liés à l’IA, ou faut-il des mesures supplémentaires ?
    Quels aspects du traité trouvez-vous les plus importants pour la protection des droits de l’homme ?
    Comment les gouvernements peuvent-ils garantir que les entreprises respectent les dispositions de ce traité ?
    Quels pourraient être les défis majeurs pour la mise en œuvre de ce traité dans les différents pays signataires ?
    Voyez-vous des domaines où l’IA pourrait encore poser des risques malgré ce traité ?
    Comment ce traité pourrait-il influencer l’innovation et le développement technologique dans le domaine de l’IA ?
    Pensez-vous que d’autres pays devraient rejoindre ce traité ? Pourquoi ou pourquoi pas ?
    Quels mécanismes de surveillance et de contrôle devraient être mis en place pour assurer le respect du traité ?
    Comment ce traité pourrait-il affecter la compétitivité des entreprises technologiques dans les pays signataires par rapport à celles des pays non signataires ?
    Quelles sont vos préoccupations principales concernant l’IA et comment pensez-vous que ce traité y répond ?
    Images attachées Images attachées
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  4. #124
    Membre régulier
    Homme Profil pro
    Développeur Back-End
    Inscrit en
    Août 2021
    Messages
    51
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 52
    Localisation : France, Nord (Nord Pas de Calais)

    Informations professionnelles :
    Activité : Développeur Back-End
    Secteur : Industrie

    Informations forums :
    Inscription : Août 2021
    Messages : 51
    Points : 121
    Points
    121
    Par défaut
    "Le traité entrera en vigueur le premier jour du mois qui suit l’expiration d’une période de trois mois après la date à laquelle cinq signataires,

    dont au moins trois États membres du Conseil de l’Europe, l’auront ratifié."

    Vive la simplicité !!!

  5. #125
    Membre habitué Avatar de Fluxgraveon
    Homme Profil pro
    mécanicien
    Inscrit en
    Mai 2024
    Messages
    114
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Lot (Midi Pyrénées)

    Informations professionnelles :
    Activité : mécanicien

    Informations forums :
    Inscription : Mai 2024
    Messages : 114
    Points : 178
    Points
    178
    Par défaut
    En établissant des normes juridiquement contraignantes, ce traité vise à garantir que l’IA est développée et utilisée de manière éthique et responsable, tout en protégeant les valeurs fondamentales de la société.
    Quelles "valeurs" ?

  6. #126
    Chroniqueur Actualités
    Avatar de Patrick Ruiz
    Homme Profil pro
    Redacteur web
    Inscrit en
    Février 2017
    Messages
    2 096
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Redacteur web
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Février 2017
    Messages : 2 096
    Points : 56 587
    Points
    56 587
    Par défaut Des dizaines de travailleurs de la filière intelligence artificielle se retournent contre leurs patrons
    Des dizaines de travailleurs de la filière IA se retournent contre leurs patrons et signent une lettre de soutien au projet de loi californien sur l'IA
    Susceptible de freiner les géants technologiques

    Des dizaines d’employés d’entreprises parmi lesquelles on compte OpenAI, Google Deepmind et Meta font face à leurs patrons pour appeler à une pause dans le développement de l’intelligence artificielle et à la mise sur pied d’un cadre réglementaire plus strict en la matière. Ils le font savoir dans une lettre dans laquelle ils expriment leur soutien au projet de loi californien sur l’intelligence artificielle dénommé SB 1047.

    Citation Envoyé par L'essentiel de la lettre
    Cher gouverneur Newsom,

    En tant qu'anciens et actuels employés d'entreprises d'intelligence artificielle pionnières telles que OpenAI, Google DeepMind, Anthropic, Meta et xAI, nous vous écrivons à titre personnel pour exprimer notre soutien au projet de loi 1047 du Sénat californien.

    Nous pensons que les modèles d'intelligence artificielle les plus puissants pourraient bientôt présenter des risques graves, tels qu'un accès élargi aux armes biologiques et des cyberattaques sur les infrastructures critiques. Il est possible et approprié pour les entreprises pionnières de l'IA de tester si les modèles d'IA les plus puissants peuvent causer des dommages graves, et pour ces entreprises de mettre en œuvre des mesures de protection raisonnables contre ces risques.

    Malgré l'incertitude inhérente à la réglementation des technologies avancées, nous pensons que le projet de loi SB 1047 représente une avancée significative. Nous vous recommandons de promulguer le projet de loi SB 1047.

    Nous vous prions d'agréer, Monsieur le Président, l'expression de nos salutations distinguées.
    Certaines entreprises derrière les modèles d’intelligence artificielle les plus en vue reconnaissent ne pas avoir la maîtrise totale de leur fonctionnement

    Le PDG de l'entreprise, Sam Altman, a déclaré qu'OpenAI n'avait pas besoin de comprendre parfaitement son produit pour en publier de nouvelles versions. Lors d'un entretien le 30 mai avec Nicholas Thompson, PDG de The Atlantic, au sommet mondial AI for Good de l'Union internationale des télécommunications (UIT) à Genève, en Suisse, Altman a parlé de la sécurité de l'IA et du potentiel de la technologie pour le bien de l'humanité. Toutefois, le PDG n'a pas semblé avoir une bonne réponse à la question fondamentale du fonctionnement de GPT.

    « Nous n'avons certainement pas résolu la question de l'interprétabilité », a déclaré Altman. Dans le domaine de l'intelligence artificielle, l'interprétabilité - ou l'explicabilité - consiste à comprendre comment les systèmes d'IA et d'apprentissage automatique prennent des décisions, selon le Centre pour la sécurité et les technologies émergentes de l'université de Georgetown.

    « Si vous ne comprenez pas ce qui se passe, n'est-ce pas un argument pour ne pas continuer à publier de nouveaux modèles plus puissants ? a demandé Thompson. Altman a éludé la question et a fini par répondre que, même en l'absence d'une cognition complète, « ces systèmes sont généralement considérés comme sûrs et robustes ».

    Voici son raisonnement : GPT, comme le cerveau humain, génère du contenu en se basant sur des ensembles de données existants et peut apprendre au fil du temps. Cependant, il ne possède pas d’intelligence émotionnelle ni de conscience humaine. Malgré cela, il peut être difficile de comprendre comment les algorithmes, tout comme notre cerveau, parviennent à leurs conclusions.

    « Nous ne comprenons pas ce qui se passe dans votre cerveau, neurone par neurone, et pourtant nous savons que vous pouvez suivre certaines règles et nous pouvons vous demander d'expliquer pourquoi vous pensez quelque chose », a déclaré Altman. En comparant le GPT au cerveau humain, Altman a évoqué la présence d'une boîte noire, ou d'un sentiment de mystère derrière sa fonctionnalité. À l'instar du cerveau humain, la technologie d'IA générative telle que GPT crée de nouveaux contenus sur la base d'ensembles de données existants et est censée apprendre au fil du temps.

    Nom : 1.png
Affichages : 4299
Taille : 608,2 Ko

    C’est la raison des appels de certains manifestants à « Arrêter la course, car les développements de l’IA ne sont pas sûrs »

    À Londres, une vingtaine de manifestants se sont postés devant le ministère britannique de la science, de l'innovation et de la technologie, scandant des slogans tels que « arrêtez la course, ce n'est pas sûr » et « l'avenir de qui ? notre avenir », dans l'espoir d'attirer l'attention des décideurs politiques. Les manifestants affirment que leur objectif est d'inciter les gouvernements à réglementer les entreprises qui développent des modèles d'IA d'avant-garde, notamment le Chat GPT d'OpenAI. Ils affirment que les entreprises ne prennent pas suffisamment de précautions pour s'assurer que leurs modèles d'IA sont suffisamment sûrs pour être diffusés dans le monde.

    « Les entreprises d'IA ont prouvé à maintes reprises que l'on ne pouvait pas leur faire confiance, à travers la manière dont elles traitent leurs employés et le travail des autres, en le volant littéralement et en le jetant dans leurs modèles », a déclaré Gideon Futerman, un étudiant d'Oxford qui a prononcé un discours lors de la manifestation.

    L'une des manifestantes, Tara Steele, rédactrice indépendante qui travaille sur des blogs et des contenus de référencement, a déclaré qu'elle avait constaté l'impact de la technologie sur ses propres moyens de subsistance. « J'ai remarqué que depuis l'apparition de ChatGPT, la demande de travail en freelance a considérablement diminué », explique-t-elle. « Personnellement, j'adore écrire... J'ai vraiment adoré ça. Et c'est un peu triste, émotionnellement ».

    Elle explique que sa principale raison de protester est qu'elle craint que les modèles d'intelligence artificielle d'avant-garde n'aient des conséquences encore plus dangereuses à l'avenir. « Nous avons une foule d'experts hautement qualifiés, des lauréats du prix Turing, des chercheurs en intelligence artificielle très cités et les PDG des entreprises d'intelligence artificielle eux-mêmes [qui affirment que l'intelligence artificielle pourrait être extrêmement dangereuse] ».

    Elle est particulièrement préoccupée par le nombre croissant d'experts qui mettent en garde contre les conséquences catastrophiques d'une IA mal maîtrisée. Un rapport commandé par le gouvernement américain, publié en mars, met en garde contre « l'essor de l'IA avancée et de l'IAG [intelligence artificielle générale], qui pourrait déstabiliser la sécurité mondiale d'une manière qui rappelle l'introduction des armes nucléaires ». Actuellement, les plus grands laboratoires d'IA tentent de construire des systèmes capables de surpasser les humains dans presque toutes les tâches, y compris la planification à long terme et la pensée critique. S'ils y parviennent, de plus en plus d'aspects de l'activité humaine pourraient être automatisés, qu'il s'agisse de choses banales comme les achats en ligne ou de l'introduction de systèmes d'armes autonomes qui pourraient agir d'une manière que nous ne pouvons pas prédire. Cela pourrait conduire à une « course aux armements » qui augmenterait la probabilité « d'accidents mortels à l'échelle mondiale et à l'échelle des ADM [armes de destruction massive], de conflits interétatiques et d'escalade », selon le rapport.

    Source : Lettre

    Et vous ?

    Quelles sont les principales préoccupations que vous avez concernant le développement rapide de l’intelligence artificielle ?
    Comment les gouvernements devraient-ils réguler l’IA pour équilibrer l’innovation et la sécurité publique ?
    Quel rôle le public doit-il jouer dans la décision des limites de l’IA ?
    Les avantages de l’IA l’emportent-ils sur les risques potentiels pour l’emploi et la vie privée ?
    Devrions-nous craindre une ‘course à l’IA’ entre les entreprises et les nations, et si oui, comment pouvons-nous la prévenir ?
    Quelles mesures de sécurité spécifiques les entreprises d’IA devraient-elles mettre en place avant de lancer de nouveaux produits ?
    Comment l’IA a-t-elle affecté votre vie professionnelle ou personnelle, et quelles sont vos attentes pour l’avenir ?
    Quelles sont les responsabilités éthiques des développeurs d’IA, et comment peuvent-ils s’assurer qu’ils les respectent ?

    Voir aussi :

    Craignant l'extinction de l'humanité, un groupe de protestation milite pour l'arrêt du développement de l'IA jusqu'à ce que des mesures de sécurité adéquates soient établies
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  7. #127
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    936
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 936
    Points : 16 662
    Points
    16 662
    Par défaut Des pionniers de l'IA réclament des protections contre les « risques catastrophiques » liés à la technologie
    Des pionniers de l'IA réclament des protections contre les « risques catastrophiques » liés à la technologie et la création d'une autorité internationale
    chargée de surveiller son développement

    Un groupe de scientifiques participant au développement de l'IA appelle la communauté internationale à mettre en place un organe de contrôle afin de surveiller l'évolution de la technologie. Ils affirment que l'IA pourrait, en l'espace de quelques années, surpasser les capacités de ses créateurs et que « la perte de contrôle humain ou l'utilisation malveillante de ces systèmes d'IA pourrait avoir des conséquences catastrophiques pour l'ensemble de l'humanité ». Le groupe, qui est composé d'experts européens, américains, chinois et d'ailleurs, appelle une résolution rapide de ces préoccupations afin de garantir le développement de systèmes d'IA sécurisés et fiables

    Des chercheurs en IA affirment que l'IA pourrait causer de graves dommages

    Au début du mois, des scientifiques du monde entier se sont réunis à Venise, en Italie, pour discuter des « risques catastrophiques » liés à l'IA et des solutions potentielles. La rencontre s'inscrit dans le cadre de la troisième réunion des Dialogues internationaux sur la sécurité de l'IA, organisée par un groupe de recherche américain à but non lucratif appelé FAR AI. Le séminaire a réuni des scientifiques des États-Unis, de Chine, de Grande-Bretagne, de Singapour, du Canada et d'ailleurs. À l'issue des concertations, le groupe a appelé à une préparation mondiale à la sécurité de l'IA pour éviter les risques catastrophiques.


    Dans une déclaration publiée sur son site, le groupe a déclaré que les gouvernements ont besoin de savoir ce qui se passe dans les laboratoires de recherche et les entreprises qui travaillent sur les systèmes d'IA dans leur pays. Le groupe estime que les gouvernements ont besoin d'un moyen de communication sur les risques qui n'oblige pas les entreprises ou les chercheurs spécialisés dans l'IA à partager des informations confidentielles avec leurs concurrents.

    Le lancement du ChatGPT et d'une série d’outils similaires capables de créer du texte et des images en réponse à une invite a montré à quel point les capacités de l'IA progressent rapidement. La course à la commercialisation de la technologie l'a rapidement fait passer des franges de la science aux smartphones, aux voitures et aux salles de classe, et les gouvernements, de Washington à Pékin, ont été contraints de trouver un moyen de la réglementer et de l'exploiter.

    Les chercheurs en IA qui ont signé la déclaration du FAR AI s'inquiètent du fait que la technologie qu'ils ont contribué à créer pourrait causer de graves dommages à l'humanité. Selon Gillian Hadfield, juriste et professeur d'informatique et d'administration à l'université Johns Hopkins, si les systèmes d'IA, où qu'ils soient dans le monde, devaient développer ces capacités aujourd'hui, il n'existe aucun plan pour les maîtriser. Une situation qui pourrait s'avérer dangereuse.

    Hadfield affirme : « si, dans six mois, une catastrophe se produisait et que nous découvrions que des modèles commencent à s'améliorer de manière autonome, qui appellerait-on ? ». Mais leur déclaration est controversée, de nombreux critiques affirmant qu'il est bien trop tôt pour être paranoïaque sur les risques de l'IA. Selon ces derniers, « les outils d'IA actuels ne sont pas du tout intelligents comme leurs créateurs ou les entreprises voudraient bien le faire croire ».

    « Lorsque l'IA pourra réellement surpasser l'homme dans des tâches scientifiques ou techniques, alors nous pourrons discuter de ces risques. L'IA a accès à toutes nos connaissances en physique et en chimie, alors pourquoi ne pourrait-elle pas inventer une batterie de nouvelle génération ou un supraconducteur ? À ce jour, tous les systèmes d'IA dont nous disposons, y compris de pointe, sont stupides », peut-on lire dans les commentaires.

    Une autorité internationale chargée de surveiller les progrès de la technologie

    Le groupe propose que les pays mettent en place des autorités de sécurité de l'IA pour enregistrer les systèmes d'IA sur leur territoire. Ces autorités collaboreraient ensuite pour convenir d'un ensemble de lignes rouges et de signaux d'alerte, par exemple si un programme d'IA peut se copier lui-même ou tromper intentionnellement ses créateurs. Le tout serait ensuite coordonné par un organisme international. Ces réunions sont un rare lieu d'échange entre scientifiques chinois et occidentaux, à un moment où les États-Unis et la Chine sont engagés dans une compétition tendue pour la suprématie technologique.

    L'événement s'est déroulé pendant trois jours à la Casa dei Tre Oci à Venise et s'est concentré sur les mécanismes d'application des lignes rouges relatives au développement de l'IA définies lors de l'événement précédent de l'IDAIS-Beijing. Le groupe a travaillé à l'élaboration de propositions concrètes visant à empêcher la violation de ces lignes rouges et à garantir le développement en toute sécurité de systèmes d'IA avancés. Les chercheurs font trois propositions clés :

    Préparation aux situations d'urgence

    Les experts participants ont souligné la nécessité de se préparer aux risques liés à l'IA avancée qui peuvent émerger à tout moment. Ils ont convenu que des systèmes d'IA très performants seront probablement mis au point au cours des prochaines décennies, et qu'ils pourraient même l'être de manière imminente. Pour répondre à cette préoccupation urgente, ils ont proposé des accords internationaux de préparation aux situations d'urgence.

    Dans le cadre de ces accords, les autorités nationales chargées de la sécurité de l'IA se réuniraient, collaboreraient et s'engageraient à mettre en œuvre l'enregistrement et la divulgation des modèles, le signalement des incidents, les fils-pièges et les plans d'urgence. Cette proposition reconnaît que des risques importants liés à l'IA avancée peuvent émerger rapidement et de manière inattendue, ce qui nécessite une réponse mondiale coordonnée.

    Assurance de la sécurité

    Pour veiller à ce que les lignes rouges convenues ne soient pas franchies, la déclaration préconise un cadre global d'assurance de la sécurité. Dans ce cadre, les autorités nationales chargées de la sécurité de l'IA devraient exiger des développeurs qu'ils présentent des cas de sécurité très fiables avant de déployer des modèles dont les capacités dépassent les seuils spécifiés. Elle ajoute que les modèles doivent être également surveillés une fois déployés.

    Elle précise : « la surveillance post-déploiement devrait aussi être un élément clé de l'assurance des systèmes d'IA hautement performants à mesure qu'ils sont adoptés à plus grande échelle. Il est important que ces garanties de sécurité fassent l'objet d'audits indépendants, afin d'ajouter un niveau supplémentaire d'examen et de responsabilité au processus ».

    Recherche sur la sécurité et la vérification

    Les participants ont souligné que la communauté des chercheurs devait mettre au point des techniques permettant aux États de vérifier rigoureusement la véracité et la validité des affirmations relatives à la sécurité de l'IA formulées par les développeurs et, éventuellement, par d'autres États. Pour garantir l'indépendance et la crédibilité de cette recherche, ils soulignent qu'elle devrait être menée à l'échelle mondiale et financée par un large éventail de gouvernements et de philanthropes. L'approche vise à créer un cadre solide et impartial pour évaluer et valider les mesures de sécurité de l'IA à l'échelle internationale.

    Les efforts précédents en cours visant à assurer la sécurité des systèmes d'IA

    OpenAI et d'autres entreprises américaines dominent largement la course à l'IA. Mais elles sont progressivement rattrapées par les entreprises européennes et chinoises. Ces derniers mois, des entreprises chinoises ont dévoilé des technologies qui rivalisent avec les principaux systèmes américains d'IA. Kling, un modèle d’IA chinois de création de vidéos, a fait surface cet été et donné lieu à des comparaisons avec Sora, le modèle équivalent développé par OpenAI. Tout comme son rival Sora, Kling intègre la liste d’outils susceptibles de créer des bouleversements dans l'industrie cinématographique à l'avenir.

    En Europe, les modèles open source de la startup d'IA française Mistral AI suscitent fortement l'attention. Il y a quelques jours, Mistral a lancé son premier modèle multimodal appelé Pixtral 12B. Ce modèle de 12 milliards de paramètres est capable de traiter à la fois des images et du texte, et utilise son modèle textuel Nemo 12B. Il devrait en théorie être capable d'effectuer des tâches telles que légender des images et compter le nombre d'objets sur une photo.

    Au cours de l'année écoulée, les responsables gouvernementaux chinois et américains ont fait de l'IA une priorité. En juillet, un conclave du parti communiste chinois a appelé à la mise en place d'un système de régulation de la sécurité de l'IA. En janvier, les médias locaux ont rapporté que le pays a approuvé plus de 40 modèles d'IA à usage public au cours des six premiers mois depuis que les autorités ont entamé le processus d'approbation des modèles.

    Au début du mois, un groupe de normalisation technique influent en Chine a publié un cadre de sécurité pour l'IA. De l'autre côté du Pacifique, le président américain Joe Biden a signé en octobre dernier un décret exigeant des entreprises qu'elles fassent rapport au gouvernement fédéral sur les risques que leurs systèmes d'IA pourraient présenter, comme leur capacité à créer des armes de destruction massive ou leur potentiel à être utilisés par des terroristes.

    Lors de leur rencontre l'année dernière, le président Biden et le dirigeant chinois, Xi Jinping, ont convenu que les responsables des deux pays devraient organiser des discussions sur la sécurité de l'IA. La première réunion a eu lieu à Genève en mai. Dans le cadre d'une initiative gouvernementale plus large, des représentants de 28 pays ont signé une déclaration en Grande-Bretagne en novembre dernier, acceptant de coopérer pour évaluer les risques de l'IA.

    Ils se sont à nouveau réunis à Séoul en mai, mais ces rencontres n'ont pas permis de fixer des objectifs politiques spécifiques. Selon les analystes, la méfiance entre les États-Unis et la Chine ajoute à la difficulté de parvenir à un alignement. Dans le même temps, les États-Unis tentent d'empêcher la Chine d'accéder aux puces d'IA de pointe pour développer sa technologie. Les restrictions américaines compliquent également la coopération entre les deux pays.

    Source : FAIR AI

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous des propositions faites par le groupe de scientifiques pour assurer la sécurité de l'IA ?
    Les chercheurs affirment que l'IA pourrait causer de graves dommages à l'humanité à l'avenir. Qu'en pensez-vous ?

    Voir aussi

    Kling, un nouvelle modèle d'IA chinois de création de vidéos, fait l'objet de comparaisons avec Sora d'OpenAI et vient allonger la liste d'outils d'IA susceptibles de bouleverser la filière du cinéma

    « L'IA pourrait provoquer l'effondrement de l'ordre social et déclencher des guerres », affirment deux grandes entreprises japonaises qui craignent "les outils d'IA qui mentent en toute confiance"

    Des dizaines de travailleurs de la filière IA se retournent contre leurs patrons et signent une lettre de soutien au projet de loi californien sur l'IA, susceptible de freiner les géants technologiques

  8. #128
    Membre habitué Avatar de Fluxgraveon
    Homme Profil pro
    mécanicien
    Inscrit en
    Mai 2024
    Messages
    114
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Lot (Midi Pyrénées)

    Informations professionnelles :
    Activité : mécanicien

    Informations forums :
    Inscription : Mai 2024
    Messages : 114
    Points : 178
    Points
    178
    Par défaut
    Pour veiller à ce que les lignes rouges convenues ne soient pas franchies, la déclaration préconise un cadre global d'assurance de la sécurité. Dans ce cadre, les autorités nationales chargées de la sécurité de l'IA devraient exiger des développeurs qu'ils présentent des cas de sécurité très fiables avant de déployer des modèles dont les capacités dépassent les seuils spécifiés.
    Un très gros interrupteur.
    Comment fait-on, au fait, pour stopper un flux stellaire ? Nous Quittons les échelles et entrons dans les magnitudes.

  9. #129
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 693
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 693
    Points : 118 382
    Points
    118 382
    Par défaut Le créateur de la vidéo parodique de Kamala Harris poursuit la Californie en raison de la loi "deepfake"
    Le créateur de la vidéo parodique de Kamala Harris poursuit la Californie en raison de la loi "deepfake", après l'interdiction de sa parodie de la vice-présidente Kamala Harris.

    Le créateur de la vidéo parodique de Kamala Harris poursuit la Californie en raison de la loi "deepfake", après l'interdiction de sa parodie de la vice-présidente Kamala Harris affirmant qu'elle était "l'ultime candidate pour la diversité". Il a déclaré avoir le "droit constitutionnel absolu de tourner en dérision les hommes politiques dont il pense qu'ils ne devraient pas être élus".

    Un deepfake ou hypertrucage en français est une technique de synthèse d'images basée sur l'intelligence artificielle (IA). Il est utilisé pour combiner et superposer des images et des vidéos existantes afin de les manipuler à l’aide de l’apprentissage automatique. C’est une technologie qui pourrait révolutionner certains secteurs d’activité, mais entre les mains des personnes malveillantes, elle représente un danger.

    Différentes lois ont été votées pour réguler la technologie, mais les avis sont partagés. Récemment, un créateur de vidéo a poursuivi l'État de Californie pour une nouvelle loi qui interdit l'utilisation de "deepfake". Il avait publié une vidéo "deepfake" parodique de la vice-présidente Kamala Harris où elle disait qu'elle était "l'ultime candidate pour la diversité". La vidéo a été interdite à cause de la loi sur l'IA.


    La loi sur l'IA en Californie suscite des avis partagés

    En octobre 2019, l’État de Californie des États-Unis avait voté deux nouvelles lois pour lutter contre les deepfakes. Les deux lois, AB 730 et AB 602, cible des situations bien déterminées où les deepfakes sont les plus courants. La première loi rend illégale la diffusion de toute vidéo manipulée qui pourrait discréditer un candidat dans les 60 jours avant une élection et l'autre permettra aux résidents de poursuivre en justice quiconque met leur image dans du porno sans leur approbation.

    Puis en août 2024, un autre projet de loi sur l'IA a été adopté en Californie par l'assemblée législative. Le projet de loi, connu sous le nom de "Safe and Secure Innovation for Frontier Artificial Intelligence Models Act", propose des mesures strictes pour garantir la sécurité des modèles d’IA avancés. Le projet de loi imposerait davantage de responsabilités, notamment des tests de sécurité et la mise en œuvre de mesures de protection. Les entreprises doivent également accepter de se soumettre à des audits par des tiers.

    Mais le projet de loi a déclenché diverses réactions. Les entreprises technologiques, notamment Google, Meta et OpenAI, s'y opposent largement, arguant qu'il pourrait freiner l'innovation. Le directeur de la stratégie d'OpenAI avait notamment déclaré que le projet de loi pourrait "ralentir le rythme de l'innovation et inciter les ingénieurs et les entrepreneurs californiens de classe mondiale à quitter l'État à la recherche de meilleures opportunités ailleurs".

    Elon Musk, propriétaire de la startup d'IA xAI, s'est prononcé en faveur du projet de loi, en déclarant que "tout bien considéré, je pense que la Californie devrait probablement adopter le projet de loi SB 1047 sur la sécurité de l'IA... je plaide en faveur d'une réglementation de l'IA." Pourtant, il avait partagé une vidéo manipulée imitant la voix de la vice-présidente des États-Unis Kamala Harris, sans indiquer explicitement qu'il s'agissait à l'origine d'une parodie. La vidéo reprenait d'anciens clips authentiques de Mme Harris, mais des experts ont confirmé qu'une grande partie de la voix a été générée par l'IA.


    Le créateur de la vidéo parodique de Kamala Harris poursuit la Californie pour la loi sur les "deepfakes"

    Christopher Kohls, créateur de la vidéo parodique de Kamala Harris, affirme que ses droits au premier et au quatorzième amendement ont été violés lorsque le gouverneur Gavin Newsom a promulgué la loi contre le "deepfake". Il affirme que la loi a effectivement interdit sa vidéo sur Mme Harris, qui avait suscité la controverse depuis qu'il l'avait postée pour la première fois au cours de l'été.

    Le premier message de M. Kohl qualifiait la vidéo de "parodie d'annonce de campagne", ce qui la protégeait en vertu de la précédente loi californienne. Il affirme que la nouvelle loi exige une nouvelle taille de police pour l'étiquetage, qui remplirait tout l'écran de sa vidéo. Dans les documents de procédure, il a déclaré avoir le "droit constitutionnel absolu de tourner en dérision les hommes politiques dont il pense qu'ils ne devraient pas être élus".

    Kohls, qui se fait appeler Mr Reagan sur X, a fait visionner la vidéo de Harris 135 millions de fois depuis qu'elle a été partagée par Elon Musk. Mais quand Musk a reposté la vidéo, il n'a pas précisé qu'il s'agissait d'une parodie, ce qui a suscité l'ire des partisans de M. Harris dans tout le pays, y compris de M. Newsom, qui a promis d'interdire ce type de vidéos.

    "Le fait de leur demander d'utiliser le mot "parodie" sur la vidéo elle-même évite d'induire le public en erreur lorsque la vidéo est partagée sur la plateforme", a déclaré Izzy Gardon, porte-parole de M. Newsom. "La raison pour laquelle cet activiste conservateur poursuit la Californie n'est pas claire. Cette nouvelle loi sur la divulgation des fausses informations électorales n'est pas plus onéreuse que les lois déjà adoptées dans d'autres États, y compris l'Alabama."

    Et vous ?

    Pensez-vous que cette plainte est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Un expert en IA « complètement terrifié » par les élections américaines de 2024, qui s'annoncent comme un « tsunami de désinformation » avec l'avènement des deepfakes et les IA génératives

    Les "deepfakes" politiques représentent l'utilisation abusive la plus populaire de l'IA : Sa faible technicité et son accessibilité ont accru l'utilisation malveillante de l'IA générative, selon DeepMind

    Microsoft veut que le Congrès interdise les fraudes par deepfake générées par l'IA, avec une "loi sur la fraude par deepfake" qui donnera aux autorités un cadre juridique pour poursuivre les fraudes par l'IA
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  10. #130
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 693
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 693
    Points : 118 382
    Points
    118 382
    Par défaut Des artistes exhortent le gouverneur Newsom à signer un projet de loi sur la sécurité de l'IA
    Mark Hamill, Jane Fonda et J.J. Abrams exhortent le gouverneur Newsom à signer un projet de loi sur la sécurité de l'IA pour des mesures de protection contre une catastrophe provoquée par l'IA.

    Plus de 125 acteurs, réalisateurs, producteurs, artistes musicaux et leaders de l'industrie du divertissement d'Hollywood ont signé une lettre pour exhorter le gouverneur Gavin Newsom à signer le projet de loi sur la sécurité de l'IA. Le projet de loi tiendrait les développeurs de modèles d'IA responsables en cas de catastrophe provoquée par l'IA. Le gouverneur Gavin Newsom a jusqu'au 30 septembre pour prendre une décision sur le projet de loi.

    Un projet de loi en Californie, visant à réguler le développement des modèles d’intelligence artificielle (IA), a déclenché une vive controverse à Silicon Valley. Le projet de loi propose des mesures strictes pour garantir la sécurité des modèles d’IA avancés. Le projet de loi imposerait davantage de responsabilités aux entreprises, notamment des tests de sécurité et la mise en œuvre de mesures de protection. Fin août 2024, les législateurs californiens ont adopté ce projet de loi très controversé sur la sécurité de l'IA, puis le gouverneur Gavin Newsom a jusqu'au 30 septembre pour décider de le promulguer ou d'y opposer son veto.

    Mark Hamill, Jane Fonda, J.J. Abrams ont demandé au gouverneur Gavin Newsom de signer le projet de loi sur la sécurité de l'IA dans une lettre publiée le 24 septembre 2024. Plus de 125 acteurs, réalisateurs, producteurs, artistes musicaux et leaders de l'industrie du divertissement d'Hollywood ont ajouté leur nom à la lettre pour exhorter le gouverneur Gavin Newsom à signer le projet de loi.

    Parmi les signataires de la lettre figurent le co-créateur de "Lost", J.J. Abrams, la productrice exécutive de "Bridgerton", Shonda Rhimes, le réalisateur de "The 40 Year-Old Virgin", Judd Apatow, la créatrice de "When They See Us", Ava DuVernay, les acteurs Mark Hamill, Jane Fonda, Mahershala Ali, Ramy Youssef, Alec Baldwin, Pedro Pascal, Connie Britton, Mark Ruffalo, Sean Astin et Joseph Gordon-Levitt, ainsi que l'auteur-compositeur-interprète Diane Warren. Les dirigeants de SAG-AFTRA, dont la présidente Fran Drescher et le directeur exécutif national et négociateur en chef Duncan Crabtree-Ireland, ont également signé.

    "Les graves menaces que fait peser l'IA relevaient autrefois de la science-fiction, mais ce n'est plus le cas aujourd'hui", peut-on lire dans la lettre. "Même si les milliardaires qui s'opposent à la loi SB 1047 considèrent ces inquiétudes comme fantaisistes, de nombreux ingénieurs, universitaires et responsables politiques de premier plan de l'industrie affirment le contraire."

    Nom : 1.jpg
Affichages : 3431
Taille : 27,2 Ko

    Voici la lettre des artistes adressée au gouverneur Gavin Newsom :

    Cher Gouverneur Newsom,

    Comme vous le savez, certaines des entreprises les plus lucratives et les plus puissantes du monde font actuellement la course pour dominer l'énorme opportunité commerciale connue sous le nom d'IA. Bon nombre de ces entreprises sont basées dans votre État d'origine, la Californie.

    La semaine dernière, vous avez signé deux projets de loi qui contribueront à protéger les droits et les moyens de subsistance des artistes contre diverses utilisations contraires à l'éthique de l'IA par ces grandes entreprises technologiques. Nous vous en sommes sincèrement reconnaissants.

    Mais il y a maintenant un autre projet de loi qui attend de toute urgence votre signature et qui réglementerait l'IA : le projet de loi SB 1047 du sénateur Wiener. Ce projet de loi ne vise pas à protéger les artistes, mais à protéger tout le monde.

    Les graves menaces que fait peser l'IA relevaient autrefois de la science-fiction, mais ce n'est plus le cas aujourd'hui. Même si les milliardaires qui s'opposent au projet de loi SB 1047 considèrent ces inquiétudes comme fantaisistes, de nombreux ingénieurs, universitaires et responsables politiques de premier plan du secteur affirment le contraire. Dans une récente lettre ouverte en faveur de la loi SB 1047, plus d'une centaine d'employés actuels et anciens d'OpenAI, de Google DeepMind, d'Anthropic, de Meta et de xAI ont déclaré :

    « Nous pensons que les modèles d'IA les plus puissants pourraient bientôt présenter des risques graves, tels qu'un accès élargi aux armes biologiques et des cyberattaques sur les infrastructures critiques. Il est possible et approprié pour les entreprises d'IA pionnières de tester si les modèles d'IA les plus puissants peuvent causer des dommages graves, et pour ces entreprises de mettre en œuvre des mesures de protection raisonnables contre ces risques ».

    Le projet de loi SB 1047 mettrait en œuvre les mesures de protection demandées par les initiés de l'industrie. Le projet de loi a été adopté à une majorité écrasante par le Sénat et l'Assemblée de l'État de Californie. Les sondages montrent que 77 % des Californiens l'approuvent. Pourquoi le gouverneur ne la signerait-il pas ?

    Gouverneur Newsom, la plupart d'entre nous résident en Californie. Nous vous soutenons. Nous avons voté pour vous. Nous voulons continuer à croire que vous êtes un dirigeant qui défendra le bien-être de tous, et pas seulement celui de quelques géants de la Silicon Valley.

    Nous croyons fermement au potentiel éblouissant de l'IA, qui peut être utilisé à bon escient. Mais nous devons aussi être réalistes quant aux risques. Le moment est venu, Monsieur le Gouverneur, pour la Californie de donner cet exemple pratique et positif à tous les États-Unis, ainsi qu'au reste du monde.

    Le projet de loi, présenté par le sénateur Scott Wiener (D-San Francisco) et adopté par l'assemblée législative, obligerait les développeurs de modèles d'IA à partager leurs plans de sécurité avec le procureur général de Californie, qui pourrait les tenir pour responsables si les modèles d'IA qu'ils contrôlent directement causaient des dommages ou constituaient une menace imminente pour la sécurité publique. Les développeurs devraient également disposer d'un moyen d'arrêter ces modèles d'IA en cas de problème.

    Le projet de loi a fait l'objet de vifs débats en Californie et est contesté par des entreprises technologiques telles que Meta, la société mère de Facebook, et OpenAI, le créateur de ChatGPT, ainsi que par le groupe technologique Chamber of Progress, qui a publié une chanson rock générée par l'IA sur le projet de loi, avec des paroles telles que "veto the chains that hold us down" (mettez votre veto sur les chaînes qui nous retiennent).

    Les leaders démocrates du Congrès, dont l'ancienne présidente de la Chambre des représentants Nancy Pelosi, les députés Ro Khanna (D-Fremont) et Zoe Lofgren (D-San José), ont également demandé à Gavin Newsom d'opposer son veto au projet de loi. Ils affirment que la législation pourrait étouffer l'innovation et citent les efforts déployés par le Congrès dans le domaine de l'IA.

    Le projet de loi 1047 du Sénat est soutenu par le Center for AI Safety, par certains éminents chercheurs en IA et par Elon Musk, directeur général de Tesla. Plus de 100 employés actuels et anciens d'entreprises liées à l'IA, dont OpenAI, Google DeepMind et Meta, ont signé une lettre de soutien au projet de loi SB 1047. Les partisans du projet de loi estiment que, le Congrès étant généralement plus lent à réglementer les technologies, la Californie devrait prendre les devants.

    "Dans la Silicon Valley, on aime à dire qu'il faut aller vite et casser les choses", a déclaré Gordon-Levitt dans un communiqué. Mais avec des technologies aussi puissantes, il faudrait peut-être dire "Allez aussi vite que possible tout en faisant attention à ne rien casser".

    Le gouverneur Gavin Newsom a jusqu'au 30 septembre pour prendre une décision sur le projet de loi. Mais il a déclaré qu'il n'avait pas encore pris sa décision sur le SB 1047. "Il s'agit d'un de ces projets de loi qui passent rarement sur le bureau, et dont l'adoption dépend de la force de persuasion de la dernière personne à avoir téléphoné", a déclaré Gavin Newsom. "Il a divisé tant de gens."

    Les avertissements concernant le potentiel de l'IA ne sont pas récents. En 2019, Elon Musk avait déjà déclaré que " l"IA est plus dangereuse que les ogives nucléaires" et il devrait exister un organisme de réglementation supervisant le développement de cette technologie. Il ajoutait : "Je ne suis pas normalement un partisan de la réglementation et de la surveillance .. mais il s’agit d’une situation où le public court un très grave danger". Bill Gates, cofondateur de Microsoft, confirmait également que l'IA est comme l’énergie nucléaire : une technologie "à la fois porteuse d’espoir et dangereuse".


    Source : Lettre des artistes adressée au gouverneur Newsom

    Et vous ?

    Pensez-vous que cette lettre est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Le projet de loi californien sur l'IA menace-t-il l'innovation ou protège-t-il la société ? Google, Meta et OpenAI s'y opposent, arguant qu'il pourrait freiner l'innovation, tandis qu'Elon Musk le soutient

    L'ONU veut traiter l'IA avec la même urgence que le changement climatique : l'organisme voudrait instaurer une gouvernance mondiale de l'IA pour en maximiser les avantages tout en minimisant les risques

    Les grandes enseignes Tech cherchent à affaiblir la loi européenne sur l'IA, arguant que des exigences trop lourdes en matière de transparence pourraient ralentir le développement de nouvelles technologies
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  11. #131
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 693
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 693
    Points : 118 382
    Points
    118 382
    Par défaut Le gouverneur de Californie signe 9 projets de loi réglementant les contenus générés par l'IA
    Le gouverneur de Californie signe 9 projets de loi réglementant les contenus générés par l'IA pour répondre aux risques liés aux "deepfakes", malgré que les Big tech de l'IA y voient un frein à l'innovation

    Le gouverneur de Californie a signé 9 projets de loi réglementant les contenus générés par l'IA, pour répondre aux risques liés aux "deepfakes". Deux projets de loi concernent les acteurs et les interprètes, trois projets de loi visent à lutter contre l'utilisation abusive de contenus générés par l'IA et quatre projets de loi visent à règlementer l'utilisation de l'IA dans les campagnes électorales. Mais les Big tech de l'IA critiquent le projet de loi pour la régulation de l'IA, y voyant un frein à l'innovation.

    Ce mois de septembre 2024 a été particulièrement animé par le débat autour de la règlementation de l'intelligence artificielle (IA) en Californie aux États-Unis. Fin août, le projet de loi controversé sur l'IA a été adopté par l'Assemblée législative. Le gouverneur californien Gavin Newsom avait jusqu'au 30 septembre pour décider de le promulguer ou d'y opposer son veto.

    Le projet de loi, connu sous le nom de "Safe and Secure Innovation for Frontier Artificial Intelligence Models Act", propose des mesures strictes pour garantir la sécurité des modèles d’IA avancés. Le projet de loi imposerait davantage de responsabilités, notamment des tests de sécurité et la mise en œuvre de mesures de protection. Les entreprises doivent également accepter de se soumettre à des audits par des tiers.

    Parmi les partisans de la règlementation de l'IA, plus de 125 acteurs, réalisateurs, producteurs, artistes musicaux et leaders de l'industrie du divertissement d'Hollywood ont signé une lettre pour exhorter le gouverneur Gavin Newsom à signer le projet de loi. De l'autre côté, les Big tech comme Google, OpenAI ou Meta, s'y opposent, arguant que le projet de loi pourrait freiner l'innovation. Ils ont également adressé des lettres exprimant leurs préoccupations.

    La décision tant attendue du gouvernement de Californie vient de tomber le 26 septembre 2024. Le gouverneur Gavin Newsom a signé 9 projets de loi réglementant les contenus générés par l'IA. La législation vise à répondre aux risques liés aux "deepfakes".


    Le gouverneur de Californie, Gavin Newsom, a signé neuf projets de loi visant à lutter contre les risques liés aux contenus générés par l'IA, en particulier les "deepfakes". Vingt-neuf autres textes législatifs relatifs à l'IA attendent sa signature ou son veto avant la fin de la session législative de l'État, le 30 septembre.

    Parmi les textes législatifs qu'il a récemment signés figurent deux projets de loi visant à protéger l'image numérique des acteurs et des interprètes - vivants ou décédés - contre toute utilisation non autorisée de l'IA et d'autres technologies numériques :

    • L'AB 2602 exige des contrats pour l'utilisation d'imitations profondes de la voix ou de l'image d'un artiste générées par l'IA, et l'artiste doit être représenté professionnellement lors de la négociation du contrat.
    • L'AB 1836 interdit l'utilisation commerciale de copies profondes d'artistes-interprètes décédés dans des films, des émissions de télévision, des jeux vidéo, des livres audio, des enregistrements sonores et d'autres médias sans le consentement des ayants droit de l'artiste-interprète.

    Trois projets de loi visent à lutter contre l'utilisation abusive de contenus générés par l'IA, notamment les "deepfakes" à caractère sexuel :

    • Le projet de loi SB 926 criminalise la création et la distribution d'images sexuellement explicites d'une personne réelle qui semblent authentiques lorsqu'elles sont destinées à causer une détresse émotionnelle.
    • Le SB 981 exige que les plateformes de médias sociaux créent un mécanisme permettant aux gens de signaler les deepfakes sexuellement explicites d'eux-mêmes. Une fois le signalement effectué, la plateforme doit bloquer temporairement le matériel pendant qu'elle enquête et le supprimer définitivement s'il est confirmé.
    • Le SB 942 exige que les systèmes d'IA générative placent des filigranes invisibles sur le contenu qu'ils produisent et fournissent des outils gratuits pour les détecter afin que le contenu généré par l'IA puisse être facilement identifié.

    Quatre projets de loi visent à lutter contre l'utilisation de deepfakes et d'autres contenus trompeurs générés ou modifiés numériquement dans les campagnes électorales.

    • L'AB 2655 exige des grandes plateformes en ligne qu'elles retirent ou étiquettent les contenus politiques trompeurs ou modifiés numériquement pendant des périodes précises autour des élections et qu'elles fournissent des moyens de les signaler.
    • L'AB 2839 étend la période pendant laquelle il est interdit aux entités politiques de distribuer sciemment une publicité ou tout autre matériel électoral contenant un contenu trompeur généré par l'IA.
    • L'AB 2355 exige que les publicités politiques utilisant un contenu généré par l'IA révèlent que le matériel a été modifié.
    • L'AB 2905 exige que les robocalls informent les destinataires si la voix est générée artificiellement.

    Le gouverneur Gavin Newsom a commenté cette annonce :

    Nous continuons à avancer en terrain inconnu lorsqu'il s'agit de savoir comment l'IA et les médias numériques transforment l'industrie du divertissement, mais notre étoile polaire a toujours été la protection des travailleurs. Cette législation permet à l'industrie de continuer à prospérer tout en renforçant les protections des travailleurs et la manière dont leur image peut ou ne peut pas être utilisée.

    Personne ne devrait être menacé par quelqu'un sur Internet qui pourrait l'imiter, en particulier de manière sexuellement explicite. Nous sommes à une époque où les outils numériques tels que l'IA ont d'immenses capacités, mais ils peuvent aussi être utilisés de manière abusive contre d'autres personnes. Nous prenons des mesures pour protéger les Californiens.

    La sauvegarde de l'intégrité des élections est essentielle à la démocratie, et il est primordial de veiller à ce que l'IA ne soit pas déployée pour miner la confiance du public par la désinformation, en particulier dans le climat politique actuel. Ces mesures permettront de lutter contre l'utilisation néfaste des deepfakes dans les publicités politiques et d'autres contenus. Il s'agit de l'un des nombreux domaines dans lesquels l'État agit de manière proactive pour favoriser une IA transparente et digne de confiance.
    Nom : 1.jpg
Affichages : 5157
Taille : 48,2 Ko

    Le texte le plus controversé est le SB 1047, qui oblige les développeurs d'IA à mettre en œuvre des mesures de protection pour réduire le risque que leur technologie provoque ou permette une catastrophe, telle qu'un événement impliquant un grand nombre de victimes ou une cyberattaque. Jusqu'à présent, Gavin Newsom s'est montré timide quant à ses projets concernant ce projet de loi.

    Le projet de loi sur la sécurité de l'IA, SB 1047, imposerait davantage de responsabilités à tout développeur dépensant plus de 100 millions de dollars pour construire un modèle d'IA. Les exigences comprennent des tests de sécurité, la mise en œuvre de mesures de protection et la possibilité pour le procureur général de l'État de prendre des mesures à l'encontre du développeur de tout modèle d'IA qui cause un "préjudice grave", tel que des pertes massives ou des incidents entraînant des dommages d'une valeur de 500 millions de dollars ou plus.

    Si la nécessité de limiter les risques liés aux nouveaux modèles d'IA puissants est largement admise, les critiques ont fait valoir que les propositions étoufferaient les start-ups, profiteraient aux rivaux américains et compromettraient la position centrale de la Californie dans l'essor de l'IA. Jason Kwon, directeur de la stratégie d'OpenAI, avait déclaré que le projet de loi SB 1047 menace "le statut unique de la Californie en tant que leader mondial de l'intelligence artificielle". Il ajoute que cela pourrait "ralentir le rythme de l'innovation et inciter les ingénieurs et les entrepreneurs californiens de classe mondiale à quitter l'État à la recherche de meilleures opportunités ailleurs".

    Dans une déclaration concernant le veto sur SB 1047, Newsom a déclaré : « Bien que bien intentionné, le SB 1047 ne prend pas en compte si un système d’IA est déployé dans des environnements à haut risque, implique une prise de décision critique ou l’utilisation de données sensibles. Au lieu de cela, le projet de loi applique des normes strictes même aux fonctions les plus élémentaires, à condition qu'un grand système les déploie. Je ne pense pas que ce soit la meilleure approche pour protéger le public des menaces réelles posées par la technologie.»


    Source : Legislature de Californie

    Et vous ?

    Quel est votre avis sur le sujet ?
    Pensez-vous que ces projets de loi sont crédibles ou pertinents ?

    Voir aussi :

    AI Act : les nouvelles règles européennes en matière d'intelligence artificielle entrent en vigueur. L'objectif déclaré est d'encourager le développement et l'adoption de systèmes IA sûrs et fiables en UE

    Les Big Tech (GAFAM) veulent réglementer l'IA, mais les autres entrepreneurs sont sceptiques, selon eux leur réelle volonté serait juste de geler le marché de l'IA pour conserver leur monopole

    Le Sénat US présente un projet de loi visant à établir un cadre juridique pour le développement éthique de l'IA et ravive le débat sur la possibilité de frein à l'innovation telle que soulignée par Macron
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  12. #132
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 284
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 284
    Points : 21 174
    Points
    21 174
    Par défaut Le gouverneur de Californie oppose son veto à un projet de loi controversé sur la sécurité de l'IA
    Le gouverneur de Californie oppose son veto à un projet de loi controversé sur la sécurité de l'IA, Gavin Newsom souhaite des règles plus complètes pour le projet de loi auquel s'opposent Google, OpenAI et Meta

    Le gouverneur de Californie, Gavin Newsom, a opposé le dimanche 29 septembre 2024 son veto à un projet de loi très contesté sur la sécurité de l'intelligence artificielle (IA), après que l'industrie technologique eut soulevé des objections, estimant que ce projet de loi pourrait pousser les entreprises d'intelligence artificielle à quitter l'État et entraver l'innovation.

    Pour rappel, le gouverneur de Californie a précédemment signé 9 projets de loi réglementant les contenus générés par l'IA, pour répondre aux risques liés aux "deepfakes". Deux projets de loi parmi les neuf concernent les acteurs et les interprètes, trois projets de loi visent à lutter contre l'utilisation abusive de contenus générés par l'IA et quatre projets de loi visent à réglementer l'utilisation de l'IA dans les campagnes électorales. Mais les Big tech de l'IA critiquent le projet de loi pour la régulation de l'IA, y voyant un frein à l'innovation.

    Gavin Newsom a déclaré qu'il avait demandé à d'éminents experts en IA générative d'aider la Californie à « élaborer des garde-fous réalisables » qui se concentrent « sur le développement d'une analyse empirique et scientifique de la trajectoire ». Il a également ordonné aux agences de l'État d'élargir leur évaluation des risques d'événements catastrophiques potentiels liés à l'utilisation de l'IA.

    L'IA générative - qui peut créer du texte, des photos et des vidéos en réponse à des questions ouvertes - a suscité de l'enthousiasme, mais aussi des craintes qu'elle ne rende certains emplois obsolètes, qu'elle ne bouleverse les élections, qu'elle ne prenne le dessus sur les humains et qu'elle n'ait des effets catastrophiques.


    L'auteur du projet de loi, le sénateur démocrate Scott Wiener, a déclaré qu'une législation était nécessaire pour protéger le public avant que les progrès de l'IA ne deviennent difficiles à gérer ou incontrôlables. L'industrie de l'IA se développe rapidement en Californie et certains dirigeants s'interrogent sur l'avenir de ces entreprises dans l'État si le projet de loi est adopté.

    Scott Wiener a déclaré le dimanche 29 septembre que le veto rendait la Californie moins sûre et signifiait que « les entreprises visant à créer une technologie extrêmement puissante ne sont soumises à aucune restriction contraignante ». Il a ajouté que « les engagements volontaires de l'industrie ne sont pas applicables et sont rarement bénéfiques pour le public ».

    « Nous ne pouvons pas nous permettre d'attendre qu'une catastrophe majeure se produise avant de prendre des mesures pour protéger le public », a déclaré Gavin Newsom, tout en ajoutant qu'il n'était pas d'accord avec le fait que « nous devions nous contenter d'une solution qui n'est pas fondée sur une analyse empirique de la trajectoire des systèmes et des capacités de l'IA ».

    Gavin Newsom a déclaré qu'il travaillerait avec le corps législatif sur une législation relative à l'IA lors de la prochaine session. Cette déclaration intervient alors que la législation du Congrès américain visant à mettre en place des garde-fous est au point mort et que l'administration Biden avance des propositions de contrôle réglementaire de l'IA.

    Gavin Newsom a déclaré qu'« une approche californienne uniquement pourrait bien être justifiée - en particulier en l'absence d'une action fédérale du Congrès ».

    La Chamber of Progress, une coalition de l'industrie technologique, a salué le veto de Gavin Newsom en déclarant que « l'économie technologique californienne a toujours prospéré grâce à la concurrence et à l'ouverture ».

    La mesure aurait notamment imposé des tests de sécurité pour bon nombre des modèles d'IA les plus avancés, dont le développement coûte plus de 100 millions de dollars ou qui requièrent une puissance de calcul définie. Les développeurs de logiciels d'IA opérant dans l'État auraient également dû présenter des méthodes permettant de désactiver les modèles d'IA, ce qui aurait constitué un véritable « kill switch » (interrupteur d'arrêt).

    Le projet de loi prévoit la création d'une entité publique chargée de superviser le développement des « modèles frontières », qui dépassent les capacités des modèles existants les plus avancés.

    Nom : gavin-newsom.jpg
Affichages : 3299
Taille : 62,6 Ko

    Le projet de loi s'est heurté à une forte opposition de la part d'un large éventail de groupes. Google (Alphabet), OpenAI (soutenu par Microsoft) et Meta Platforms, qui développent tous des modèles d'IA générative, ont exprimé leurs inquiétudes quant à la proposition.

    Certains démocrates du Congrès américain, dont la représentante Nancy Pelosi, s'y sont également opposés. Parmi les partisans de la proposition, on trouve le PDG de Tesla, Elon Musk, qui dirige également une entreprise d'IA appelée xAI. Anthropic, soutenue par Amazon, a déclaré que les avantages du projet de loi l'emportaient probablement sur les coûts, tout en ajoutant que certains aspects semblaient encore préoccupants ou ambigus.

    Gavin Newsom a signé séparément une loi obligeant l'État à évaluer les menaces potentielles que l'IA générative fait peser sur les infrastructures essentielles de la Californie.

    L'État analyse les risques liés aux infrastructures énergétiques et a déjà réuni les fournisseurs du secteur de l'électricité. Il entreprendra la même évaluation des risques avec les fournisseurs d'infrastructures hydrauliques au cours de l'année à venir et, plus tard, avec le secteur des communications, a déclaré M. Gavin Newsom.

    La déclaration du gouverneur Gavin Newsom à l'intention des membres du Sénat de l'Etat de Californie est présentée ci-dessous :

    Aux membres du Sénat de l'État de Californie :
    Je renvoie le projet de loi 1047 du Sénat sans ma signature.

    Ce projet de loi obligerait les développeurs de grands modèles d'intelligence artificielle (IA), et ceux qui fournissent la puissance de calcul nécessaire à l'entraînement de ces modèles, à mettre en place certaines garanties et politiques afin de prévenir les dommages catastrophiques. Le projet de loi prévoit également la création d'un conseil des modèles frontières (Board of Frontier Models), une entité publique, chargée de superviser le développement de ces modèles.

    La Californie abrite 32 des 50 plus grandes entreprises mondiales d'lA, pionnières de l'une des avancées technologiques les plus importantes de l'histoire moderne. Nous sommes leaders dans ce domaine grâce à nos institutions de recherche et d'éducation, à notre main-d'œuvre diversifiée et motivée, et à notre culture de la liberté intellectuelle. En tant que gardiens et innovateurs de l'avenir, je prends au sérieux la responsabilité de réglementer cette industrie.

    Cette année, la législature m'a transmis plusieurs propositions réfléchies visant à réglementer les entreprises d'lA en réponse aux risques actuels qui évoluent rapidement, notamment les menaces pour notre processus démocratique, la propagation de la désinformation et des « deepfakes », les risques pour la vie privée en ligne, les menaces pour les infrastructures critiques et les perturbations dans la main-d'œuvre. Ces projets de loi et les actions de mon administration sont guidés par les principes de responsabilité, d'équité et de transparence des systèmes d'IA et du déploiement de la technologie d'IA en Californie.

    Le SB 1047 a amplifié la conversation sur les menaces qui pourraient émerger du déploiement de l'IA. Le débat porte essentiellement sur la question de savoir si le seuil de réglementation doit être basé sur le coût et le nombre de calculs nécessaires à l'élaboration d'un modèle d'IA, ou si nous devons évaluer les risques réels du système indépendamment de ces facteurs. Cette discussion globale a lieu alors que les capacités de l'lA continuent de se développer à un rythme impressionnant. Dans le même temps, les stratégies et les solutions pour faire face au risque de dommages catastrophiques évoluent rapidement.

    En se concentrant uniquement sur les modèles les plus coûteux et les plus importants, le SB 1047 établit un cadre réglementaire qui pourrait donner au public un faux sentiment de sécurité quant au contrôle de cette technologie en évolution rapide. Des modèles plus petits et spécialisés pourraient s'avérer tout aussi dangereux, voire plus, que les modèles visés par le projet de loi SB 1047, au risque de freiner l'innovation même qui alimente les progrès en faveur du bien public.

    La capacité d'adaptation est essentielle dans notre course à la réglementation d'une technologie qui n'en est encore qu'à ses balbutiements. Cela nécessitera un équilibre délicat. Bien que bien intentionné, le projet de loi SB 1047 ne tient pas compte du fait qu'un système d'IA est déployé dans des environnements à haut risque, qu'il implique des prises de décision critiques ou l'utilisation de données sensibles. Au lieu de cela, le projet de loi applique des normes strictes même aux fonctions les plus basiques, pour autant qu'un grand système les déploie. Je ne pense pas qu'il s'agisse là de la meilleure approche pour protéger le public des menaces réelles posées par cette technologie.

    Soyons clairs - je suis d'accord avec l'auteur - nous ne pouvons pas nous permettre d'attendre qu'une catastrophe majeure se produise avant de prendre des mesures pour protéger le public. La Californie n'abandonnera pas ses responsabilités. Des protocoles de sécurité doivent être adoptés. Des garde-fous proactifs doivent être mis en place, et les conséquences sévères pour les mauvais acteurs doivent être claires et applicables. Je ne suis toutefois pas d'accord avec le fait que, pour assurer la sécurité du public, nous devons nous contenter d'une solution qui ne repose pas sur une analyse empirique de la trajectoire des systèmes et des capacités de l'lA. En fin de compte, tout cadre visant à réglementer efficacement l'IA doit suivre l'évolution de la technologie elle-même.

    À ceux qui disent qu'il n'y a pas de problème à résoudre ou que la Californie n'a pas de rôle à jouer dans la réglementation des implications potentielles de cette technologie sur la sécurité nationale, je réponds par la négative. Une approche exclusivement californienne peut être justifiée - en particulier en l'absence d'action fédérale de la part du Congrès - mais elle doit être fondée sur des preuves empiriques et scientifiques. Le U.S. Al Safety Institute, qui dépend du National Institute of Science and Technology, élabore actuellement des orientations sur les risques pour la sécurité nationale, fondées sur des approches factuelles, afin de se prémunir contre les risques démontrables pour la sécurité publique. En vertu d'un décret que j'ai publié en septembre 2023, les agences de mon administration effectuent des analyses de risques sur les menaces et les vulnérabilités potentielles des infrastructures essentielles de la Californie utilisant l'IA. Ce ne sont là que quelques exemples des nombreuses initiatives en cours, menées par des experts, pour informer les décideurs politiques sur les pratiques de gestion des risques liés à l'IA qui sont fondées sur la science et les faits. Ces efforts ont conduit à l'introduction de plus d'une douzaine de projets de loi réglementant les risques spécifiques et connus posés par l'IA, que j'ai signés au cours des 30 derniers jours.

    Je m'engage à travailler avec la législature, les partenaires fédéraux, les experts en technologie, les éthiciens et les universitaires pour trouver la voie à suivre, y compris la législation et la réglementation. Compte tenu des enjeux - protéger contre les menaces réelles sans contrecarrer inutilement la promesse de cette technologie de faire progresser le bien public - nous devons faire les choses correctement.

    Pour ces raisons, je ne peux pas signer ce projet de loi.
    Source : Communiqué du gouverneur Gavin Newsom

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de cette décision du gouverneur Gavin Newsom, trouvez-vous qu'elle est crédible ou pertinente ?

    Voir aussi :

    Le gouverneur de Californie signe 9 projets de loi réglementant les contenus générés par l'IA pour répondre aux risques liés aux "deepfakes", malgré que les Big tech de l'IA y voient un frein à l'innovation

    Une nouvelle loi californienne oblige les magasins numériques à préciser que vous n'achetez pas le contenu, mais juste une licence, afin de lutter contre la "disparition" des achats de contenus numériques

    Le gouverneur de Californie signe une loi visant à protéger les enfants de l'addiction aux médias sociaux, et à interdire aux médias sociaux de fournir des flux addictifs aux enfants sans l'accord des parents
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  13. #133
    Chroniqueur Actualités

    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Juin 2023
    Messages
    936
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Juin 2023
    Messages : 936
    Points : 16 662
    Points
    16 662
    Par défaut Un juge bloque la nouvelle loi californienne sur l'IA dans l'affaire du deepfake sur Kamala Harris
    Un juge bloque la nouvelle loi californienne sur l'IA dans l'affaire du deepfake mettant en scène Kamala Harris
    ce blocage permet à Elon Musk, son réseau social X et ses alliés d'échapper à des poursuites

    La Californie s'est dotée d'une loi visant à empêcher la diffusion en ligne de deepfakes générés par l'IA et ciblant les candidats politiques à l'approche d'une élection. Mais l'application de la loi vient d'être bloquée par un juge fédéral. Il reconnaît que la crainte des deepfakes peut être justifiée, mais affirme que cette inquiétude ne donne pas aux législateurs une licence débridée pour passer outre la longue tradition de critique, de parodie et de satire protégée par le premier amendement. La décision du juge stipule que la loi californienne entrave l'expression humoristique et étouffe de manière inconstitutionnelle l'échange libre et sans restriction d'idées.

    Un juge fédéral affirme que la loi AB 2839 entrave la liberté d'expression

    La loi californienne AB 2839 vise les personnes qui partagent des deepfakes générés par l'IA en ligne, en particulier si leur message ressemble à celui d'un candidat politique et que l'auteur sait qu'il s'agit d'un faux susceptible de tromper les électeurs. Cette loi est unique, car elle ne s'attaque pas aux plateformes sur lesquelles apparaissent les deepfakes d'IA, mais plutôt à ceux qui les diffusent. La loi permet aux juges californiens d'ordonner aux auteurs de deepfakes générés par l'IA de les retirer sous peine de sanctions pécuniaires. Toutefois, elle suscite une forte opposition et a été attaquée devant les tribunaux.


    Après avoir signé la loi AB 2839, le gouverneur californien Gavin Newsom a suggéré qu'elle pourrait être utilisée pour forcer Elon Musk à retirer un deepfake de la vice-présidente Kamala Harris qu'il avait partagé sur son réseau social X (ce qui a déclenché une petite bataille en ligne entre les deux hommes). Cependant, un juge californien vient de décider que l'État ne peut pas obliger les gens à retirer les deepfakes électoraux, car ils sont protégés par la constitution.

    En effet, Christopher Kohls, le créateur du deepfake de Kamala Harris, a intenté un procès pour empêcher l'État d'appliquer la loi. Dans sa plainte de protestation, Christopher Kohls a déclaré que « la vidéo qu'il a publiée est protégée par le premier amendement parce qu'il s'agissait d'une parodie ». Le juge de district des États-Unis John Mendez lui a donné raison :

    Citation Envoyé par John Mendez, juge de district des États-Unis

    Presque tous les contenus modifiés numériquement, lorsqu'ils sont laissés à l'appréciation d'un individu arbitraire sur Internet, peuvent être considérés comme nuisibles. Par exemple, des chiffres approximatifs générés par l'IA sur le taux de participation des électeurs pourraient être considérés comme un faux contenu qui mine raisonnablement la confiance dans le résultat d'une élection en vertu de cette loi.

    D'un autre côté, de nombreuses représentations « préjudiciables », lorsqu'elles sont montrées à un grand nombre d'individus, peuvent en fin de compte ne pas influencer les perspectives électorales ou miner la confiance dans une élection. Comme le souligne de manière convaincante le plaignant, « la loi AB 2839 repose sur divers termes subjectifs et sur une mens rea maladroitement formulée », ce qui a pour effet d'impliquer de vastes quantités de discours politiques et protégés par la Constitution...

    Bien que la crainte fondée d'un paysage médiatique manipulé numériquement puisse être justifiée, cette crainte ne donne pas aux législateurs une licence débridée pour passer outre la longue tradition de critique, de parodie et de satire protégée par le Premier Amendement. Les vidéos YouTube, les posts Facebook et les tweets X sont les publicités des journaux et les caricatures politiques d'aujourd'hui, et le premier amendement protège le droit d'un individu à s'exprimer, quel que soit le nouveau support de ces critiques.

    D'autres causes d'action prévues par la loi, telles que les délits liés à la protection de la vie privée, la violation des droits d'auteur ou la diffamation, offrent déjà un recours aux personnalités publiques ou aux particuliers dont la réputation peut être affectée par des représentations artificiellement modifiées colportées par des satiristes ou des opportunistes sur Internet...

    Le dossier démontre que l'État de Californie a tout intérêt à préserver l'intégrité des élections et à s'attaquer aux contenus artificiellement manipulés. Cependant, l'intérêt de la Californie et les difficultés auxquelles l'État est confronté sont minimes par rapport à la gravité des valeurs du premier amendement en jeu et aux violations constitutionnelles permanentes que le plaignant et d'autres créateurs de contenu se trouvant dans une situation similaire subissent en voyant leur discours étouffé.
    Le juge John Mendez a ordonné une injonction préliminaire pour empêcher temporairement le procureur général de Californie d'appliquer la nouvelle loi à Kohls ou à quiconque, à l'exception des messages audio relevant de la loi AB 2839. En substance, le juge affirme que la loi, tel qu'elle est rédigée, est tout simplement trop large et qu'elle pourrait entraîner un grave débordement de la part des autorités de l'État en ce qui concerne les propos autorisés ou non.

    Comme il s'agit d'une injonction préliminaire, il faut attendre pour voir si la loi est bloquée pour de bon, mais dans tous les cas, il est peu probable qu'elle ait beaucoup d'effet sur les élections de novembre 2024. La loi AB 2839 est l'une des 18 nouvelles lois relatives à l'IA que Gavin Newsom a signées en septembre 2024.

    Elon Musk et ses alliés échappent à des poursuites avec cette injonction

    La loi A2839 qui rend illégale la distribution de médias audio ou visuels matériellement trompeurs d'un candidat 120 jours avant une élection et, dans certains cas, 60 jours après. La loi permet également aux candidats ciblés de demander à un tribunal de retirer toute publicité truquée et de poursuivre la personne qui l'a diffusée, bien que les parodies et les satires truquées divulguées en tant que telles soient exemptées. Deux autres lois, AB 2655 et AB 2355, portent respectivement sur les plateformes et sur le traitement de ce type de contenu par les groupes de campagne. Ces deux dernières entreront en vigueur.


    Le blocage de la loi AB 2839 est une grande victoire pour Elon Musk et ses partisans. Dans les jours qui ont suivi la signature de l'AB 2839 par Gavin Newsom, Elon Musk et ses alliés habituels ont partagé en ligne une série de deepfakes générés par l'IA, probablement dans le but de défier la nouvelle loi californienne. Christopher Kohls, qui a intenté le procès contre la loi, a réagi sur son compte X en déclarant : « VICTOIRE ! Le procès contre Newsom a été gagné ».

    Peu après la décision du tribunal, Elon Musk a tweeté : « la loi anticonstitutionnelle californienne portant atteinte à votre liberté d'expression a été bloquée par le tribunal ». Elon Musk a félicité Christopher Kohls en disant : « un point pour le droit du peuple à la liberté d'expression ». Musk avait partagé en juillet la vidéo créée par Christopher Kohls. Le message de Musk faisant la promotion de la vidéo mette en scène Kamala Harris a été vu plus de 135 millions de fois sur X.

    Le gouverneur californien Gavin Newsom s'était alors rapidement engagé à signer une loi visant à réprimer les deepfakes politiques, ce à quoi Elon Musk a répondu : « la parodie est légale aux Érats-Unis ». Après la signature des lois par Gavin Newsom, Elon Musk a reposté la vidéo montrant Kamala Harris et a écrit : « vous n'allez pas le croire, mais Gavin Newsom vient d'annoncer qu'il a signé une loi rendant la parodie illégale, sur la base de cette vidéo ».

    Theodore Frank, un avocat de Christopher Kohls, a déclaré dans un communiqué qu'ils étaient satisfaits que le tribunal de district soit d'accord avec leur analyse. De son côté, Izzy Gardon, le porte-parole du gouverneur Gavin Newsom, a déclaré dans un communiqué que « le bureau du gouverneur est confiant dans le fait que les tribunaux confirmeraient la capacité de la Californie à réglementer les deepfakes ». Izzy Gardon a déclaré que la loi était raisonnable.

    Selon le porte-parole, la loi est conforme à une mesure similaire adoptée en Alabama pour restreindre les deepfakes. « Les deepfakes menacent l'intégrité de nos élections et ces nouvelles lois protègent notre démocratie tout en préservant la liberté d'expression. La satire reste bien vivante en Californie, même pour ceux qui n'ont pas compris la chute », a déclaré le porte-parole. Il n'a pas donné de détail sur ce que la Californie prévoit de faire par la suite.

    Source : décision du juge fédéral John Mendez (PDF)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Que pensez-vous de la décision du juge de bloquer la loi californienne sur l'IA ?
    Selon vous, les dispositions de la loi AB 2839 entravent-elles la liberté d'expressions en ligne ?
    Quels impacts le blocage de la loi AB 2839 pourrait avoir sur les élections de novembre 2024 aux États-Unis ?

    Voir aussi

    Le créateur de la vidéo parodique de Kamala Harris poursuit la Californie en raison de la loi "deepfake" après l'interdiction de sa parodie de la vice-présidente Kamala Harris

    Le gouverneur de Californie signe 9 projets de loi réglementant les contenus générés par l'IA pour répondre aux risques liés aux "deepfakes" malgré que les Big tech de l'IA y voient un frein à l'innovation

    Le gouverneur de Californie oppose son veto à un projet de loi controversé sur la sécurité de l'IA, Gavin Newsom souhaite des règles plus complètes pour le projet de loi auquel s'opposent Google, OpenAI et Meta

  14. #134
    Membre éprouvé
    Homme Profil pro
    Administrateur systèmes et réseaux
    Inscrit en
    Août 2018
    Messages
    401
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : Autre

    Informations professionnelles :
    Activité : Administrateur systèmes et réseaux

    Informations forums :
    Inscription : Août 2018
    Messages : 401
    Points : 1 226
    Points
    1 226
    Par défaut
    Le mensonge ne peut en aucun cas être rattaché à la liberté d'expression, il doit être clairement proscrit de toute forme de politique, sans quoi certains politiciens continueront à mener des campagnes de désinformation, de dénigrement d'autrui, voir de tentatives de déstabilisation de systèmes démocratiques mis en place !!!

Discussions similaires

  1. 52e classement des superordinateurs les plus puissants : les États-Unis occupent les deux premières places
    Par Patrick Ruiz dans le forum Programmation parallèle, calcul scientifique et de haute performance (HPC)
    Réponses: 7
    Dernier message: 14/11/2018, 15h00
  2. Réponses: 10
    Dernier message: 17/09/2014, 23h30
  3. Réponses: 25
    Dernier message: 11/12/2013, 10h22
  4. Réponses: 8
    Dernier message: 25/06/2013, 01h22
  5. Quelles sont les personnalités IT les plus puissantes au monde
    Par Gordon Fowler dans le forum Actualités
    Réponses: 5
    Dernier message: 06/11/2010, 12h27

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo