IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

OpenAI dévoile ses plans de lutte contre les abus avant les élections américaines de 2024


Sujet :

Intelligence artificielle

  1. #1
    Communiqués de presse

    Femme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2018
    Messages
    2 135
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Âge : 34
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : Communication - Médias

    Informations forums :
    Inscription : Mai 2018
    Messages : 2 135
    Points : 158 397
    Points
    158 397
    Par défaut OpenAI dévoile ses plans de lutte contre les abus avant les élections américaines de 2024
    OpenAI dévoile ses plans de lutte contre les abus avant les élections américaines de 2024, en s'appuyant sur des programmes de vérification des informations et d'authenticité des images

    OpenAI, le fabricant de ChatGPT, annonce qu'il met en place de nouvelles politiques et de nouveaux outils pour lutter contre la désinformation et les abus à l'approche des élections de 2024 dans le monde entier.

    2024 est l'une des années électorales les plus importantes de l'histoire, avec des courses aux enjeux considérables dans plus de 50 pays à travers le monde. Il s'agit également du premier grand cycle électoral au cours duquel les outils d'IA générative seront largement mis à la disposition des électeurs, des gouvernements et des campagnes politiques. Dans un communiqué publié lundi, OpenAI a déclaré qu'elle s'appuierait sur des programmes de vérification des informations et d'authenticité des images pour garantir aux utilisateurs l'accès à des informations de haute qualité tout au long des élections.

    L'entreprise ajoutera des références numériques définies par une coalition tierce d'entreprises d'IA qui encodent des détails sur l'origine des images créées à l'aide de son outil de génération d'images, DALL-E 3. L'entreprise indique qu'elle expérimente un nouvel outil de "classification de la provenance" qui peut détecter les images générées par l'IA qui ont été créées à l'aide de DALL-E. Elle espère mettre cet outil à la disposition des électeurs, des gouvernements et des campagnes électorales.

    Elle espère mettre cet outil à la disposition de son premier groupe de testeurs, composé de journalistes, de chercheurs et d'autres plateformes technologiques, afin de recueillir leurs commentaires. OpenAI continuera d'intégrer sa plateforme ChatGPT aux reportages en temps réel dans le monde entier, "y compris l'attribution et les liens", a déclaré l'entreprise.

    Comment OpenAI aborde les élections mondiales de 2024

    Nous nous efforçons de prévenir les abus, d'assurer la transparence des contenus générés par l'IA et d'améliorer l'accès à des informations précises sur les élections.

    La protection de l'intégrité des élections nécessite la collaboration de tous les acteurs du processus démocratique, et nous voulons nous assurer que notre technologie n'est pas utilisée d'une manière qui pourrait nuire à ce processus.

    Nos outils permettent aux citoyens d'améliorer leur vie quotidienne et de résoudre des problèmes complexes, qu'il s'agisse d'utiliser l'IA pour améliorer les services publics ou de simplifier les formulaires médicaux pour les patients.

    Nous voulons nous assurer que nos systèmes d'IA sont construits, déployés et utilisés en toute sécurité. Comme toute nouvelle technologie, ces outils présentent des avantages et des défis. Ils sont également sans précédent, et nous continuerons à faire évoluer notre approche au fur et à mesure que nous en apprendrons davantage sur la manière dont nos outils sont utilisés.

    Alors que nous nous préparons pour les élections de 2024 dans les plus grandes démocraties du monde, notre approche consiste à poursuivre notre travail sur la sécurité des plateformes en diffusant des informations précises sur le vote, en appliquant des politiques mesurées et en améliorant la transparence. Nous disposons d'un effort interfonctionnel dédié au travail électoral, rassemblant l'expertise de nos systèmes de sécurité, du renseignement sur les menaces, des équipes juridiques, d'ingénierie et de politique afin d'enquêter rapidement et de traiter les abus potentiels.

    Voici les principales initiatives dans lesquelles nos équipes investissent pour préparer les élections de cette année :

    Prévenir les abus

    Nous attendons des gens qu'ils utilisent nos outils de manière sûre et responsable, et les élections ne font pas exception à la règle. Nous nous efforçons d'anticiper et de prévenir les abus, tels que les "deepfakes" trompeurs, les opérations d'influence à grande échelle ou les chatbots usurpant l'identité de candidats. Avant de lancer de nouveaux systèmes, nous les soumettons à une équipe d'experts, nous demandons aux utilisateurs et aux partenaires externes de nous faire part de leurs commentaires et nous mettons en place des mesures d'atténuation de la sécurité afin de réduire le risque de préjudice. Depuis des années, nous développons des outils pour améliorer l'exactitude des faits, réduire les préjugés et refuser certaines demandes. Ces outils constituent une base solide pour notre travail sur l'intégrité des élections. Par exemple, DALL-E dispose de garde-fous pour refuser les demandes de génération d'images de personnes réelles, y compris de candidats.


    Nous affinons régulièrement nos politiques d'utilisation de ChatGPT et de l'API au fur et à mesure que nous apprenons comment les gens utilisent ou tentent d'abuser de notre technologie. En voici quelques-unes pour les élections :

    • Nous cherchons encore à comprendre l'efficacité de nos outils pour la persuasion personnalisée. Tant que nous n'en savons pas plus, nous n'autorisons pas les gens à créer des applications pour les campagnes politiques et le lobbying.
    • Les gens veulent savoir et croire qu'ils interagissent avec une personne, une entreprise ou un gouvernement réel. C'est pourquoi nous n'autorisons pas les concepteurs à créer des chatbots qui prétendent être de vraies personnes (par exemple, des candidats) ou de vraies institutions (par exemple, une administration locale).
    • Nous n'autorisons pas les applications qui dissuadent les gens de participer aux processus démocratiques, par exemple en présentant de manière erronée les processus de vote et les qualifications (par exemple, quand, où ou qui a le droit de voter) ou en décourageant le vote (par exemple, en affirmant qu'un vote n'a pas de sens).
    • Grâce à nos nouveaux TPG, les utilisateurs peuvent nous signaler des violations potentielles.


    Transparence autour du contenu généré par l'IA

    Une meilleure transparence sur la provenance des images - y compris la capacité de détecter les outils utilisés pour produire une image - peut permettre aux électeurs d'évaluer une image en ayant confiance dans la manière dont elle a été créée. Nous travaillons sur plusieurs initiatives en matière de provenance. Au début de cette année, nous mettrons en œuvre les certificats numériques de la Coalition for Content Provenance and Authenticity - une approche qui encode les détails de la provenance du contenu à l'aide de la cryptographie - pour les images générées par DALL-E 3.

    Nous expérimentons également un classificateur de provenance, un nouvel outil de détection des images générées par DALL-E. Nos tests internes ont donné des résultats préliminaires prometteurs, même lorsque les images ont été soumises à des types courants de modifications. Nous prévoyons de le mettre bientôt à la disposition de notre premier groupe de testeurs - y compris des journalistes, des plateformes et des chercheurs - afin de recueillir leurs commentaires.

    Enfin, ChatGPT s'intègre de plus en plus aux sources d'information existantes - par exemple, les utilisateurs commenceront à avoir accès à des reportages d'actualité en temps réel dans le monde entier, y compris les attributions et les liens. La transparence sur l'origine des informations et l'équilibre des sources d'information peut aider les électeurs à mieux évaluer les informations et à décider par eux-mêmes de ce en quoi ils peuvent avoir confiance.

    Améliorer l'accès aux informations électorales faisant autorité

    Aux États-Unis, nous travaillons avec la National Association of Secretaries of State (NASS), la plus ancienne organisation professionnelle non partisane de fonctionnaires du pays. ChatGPT dirigera les utilisateurs vers CanIVote.org, le site Web qui fait autorité en matière d'informations électorales aux États-Unis, lorsqu'on leur posera certaines questions relatives aux procédures électorales, par exemple sur le lieu de vote. Les leçons tirées de ce travail serviront de base à notre approche dans d'autres pays et régions.

    Nous aurons d'autres informations à partager dans les mois à venir. Nous nous réjouissons de continuer à travailler avec nos partenaires et à apprendre d'eux afin d'anticiper et de prévenir les abus potentiels de nos outils à l'approche des élections mondiales de cette année.

    Source : OpenAI

    Et vous ?

    Qu'en pensez-vous ?
    Cette annonce est elle crédible ou pertinente, ou est ce que c'est juste du buzz marketing pour faire bonne figure ?

    Voir aussi :

    Grok, le rival de ChatGPT d'Elon Musk, est en train d'être déployé pour les utilisateurs de X Premium, mais le côté "audacieux et rebelle" du chatbot suscite des réactions mitigées

    L'un des créateurs de ChatGPT pense que le développement des systèmes d'intelligence artificielle peut conduire à une catastrophe, une élimination des humains par les machines

    Craignez-vous que l'information ne soit plus du tout fiable sur Internet à cause de l'intelligence artificielle ? vers une ère de désinformation sans précédent à cause des chatbots et deepfakes ?

  2. #2
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 250
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 250
    Points : 86 963
    Points
    86 963
    Par défaut OpenAI a banni le développeur d'un bot imitant le candidat démocrate à la présidence Dean Phillips
    OpenAI a banni le développeur d'un bot imitant le candidat démocrate à la présidence Dean Phillips, première mesure contre ce qu'il considère comme une utilisation abusive des services de ChatGPT.

    OpenAI, soutenue par Microsoft, a banni le développeur d'un bot imitant l'espoir présidentiel démocrate Dean Phillips, la première mesure prise par le fabricant de ChatGPT en réponse à ce qu'il considère comme une utilisation abusive de ses outils d'intelligence artificielle (IA) dans une campagne politique, a rapporté le Washington Post.

    "Nous avons récemment supprimé un compte de développeur qui violait sciemment nos politiques d'utilisation de l'API qui interdisent les campagnes politiques ou l'usurpation de l'identité d'une personne sans son consentement", a déclaré un porte-parole d'OpenAI dans un communiqué. Dean.Bot, alimenté par ChatGPT d'OpenAI, a été créé par les entrepreneurs de la Silicon Valley Matt Krisiloff et Jed Somers, qui ont lancé un super PAC nommé We Deserve Better soutenant Phillips, avant les primaires du New Hampshire, a ajouté le rapport.

    Le PAC a reçu 1 million de dollars du gestionnaire de fonds spéculatif milliardaire Bill Ackman, qui l'a qualifié d'"investissement de loin le plus important que j'aie jamais fait dans une personne se présentant à une élection", dans un message publié sur la plateforme de médias sociaux X. Le super PAC avait passé un contrat avec la start-up Delphi, spécialisée dans l'IA, pour construire le robot.

    OpenAI a suspendu le compte de Delphi , soulignant que les règles d'OpenAI interdisent l'utilisation de sa technologie dans les campagnes politiques. Delphi a supprimé Dean.Bot après la suspension du compte, ajoute le rapport.

    Dean.Bot, qui comportait une clause de non-responsabilité expliquant qu'il s'agissait d'un outil d'intelligence artificielle, pouvait converser avec les électeurs en temps réel par l'intermédiaire d'un site web, dans le cadre d'une utilisation précoce d'une technologie émergente qui, selon les chercheurs, pourrait nuire considérablement aux élections, a rapporté le Post.


    Source : Washington Post

    Et vous ?

    Quel est votre avis sur cette suspension ?
    Pensez-vous que la position d'OpenAI soit crédible ou pertinente ?

    Voir aussi :

    OpenAI dévoile ses plans de lutte contre les abus avant les élections américaines de 2024, en s'appuyant sur des programmes de vérification des informations et d'authenticité des images

    Un expert en IA « complètement terrifié » par les élections américaines de 2024, qui s'annoncent comme un « tsunami de désinformation » avec l'avènement des deepfakes et les IA génératives

    Le PDG d'OpenAI, Sam Altman, se dit effrayé par sa propre invention. L'IA pourrait être utilisée pour diffuser largement de fausses informations, ou encore lancer une nouvelle course à l'armement

Discussions similaires

  1. Réponses: 3
    Dernier message: 01/02/2019, 13h41
  2. La Belgique veut un service de lutte contre les infractions sur Internet
    Par Christian Olivier dans le forum Actualités
    Réponses: 8
    Dernier message: 01/10/2017, 16h44
  3. Le Sénat de la Silicon Valley persiste dans sa lutte contre les pirates
    Par ASTICun dans le forum Forum général Solutions d'entreprise
    Réponses: 0
    Dernier message: 16/05/2014, 14h35
  4. Lutte contre les cybercriminels
    Par gta126 dans le forum Etudes
    Réponses: 4
    Dernier message: 27/06/2010, 09h58
  5. Réponses: 145
    Dernier message: 30/03/2010, 18h16

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo