IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #341
    Membre émérite Avatar de SofEvans
    Homme Profil pro
    Développeur C
    Inscrit en
    Mars 2009
    Messages
    1 080
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 35
    Localisation : France

    Informations professionnelles :
    Activité : Développeur C

    Informations forums :
    Inscription : Mars 2009
    Messages : 1 080
    Points : 2 356
    Points
    2 356
    Par défaut

  2. #342
    Membre émérite
    Homme Profil pro
    Chargé de projets
    Inscrit en
    Décembre 2019
    Messages
    739
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Chargé de projets
    Secteur : High Tech - Éditeur de logiciels

    Informations forums :
    Inscription : Décembre 2019
    Messages : 739
    Points : 2 710
    Points
    2 710
    Par défaut
    He's back mais on raconte qu'il pourrait se faire arrêter très prochainement pour une histoire bidon avec une prostituée professionnelle de la vie sociale (Stormy Danielle) qu'il aurait payé.

    Bref tout continue comme avant aux USA, comme par hasard un nouveau procureur arrive à la Haye et bim mandat d'arrêt pour Poutine (Ce qui en plus d'être une vaste blague juridique fait ressortir d'autre dossier : sur ce sujet savez vous que les Etats Unis ont adoptés une loi pour se réserver le droit d'envahir la cour pénale internationale ?? il est expressément prévu un droit pour les USA d'envahir le Tribunal de la Haye si il inquiète un ressortissant américain ?) mais l'Irak, Guantanamo, les déstabilisations partout dans le monde c'est un arc en ciel pas la guerre.

    On a quand même en face de nous des gens qui ne veulent pas trop mettre le nez dans les crimes de guerre commis en Ukraine par les deux camps car cela pourrait faire précédent et se retourner contre les Américains.

    U.S. President George Bush today signed into law the American Servicemembers Protection Act of 2002, which is intended to intimidate countries that ratify the treaty for the International Criminal Court (ICC). The new law authorizes the use of military force to liberate any American or citizen of a U.S.-allied country being held by the court, which is located in The Hague. This provision, dubbed the "Hague invasion clause," has caused a strong reaction from U.S. allies around the world, particularly in the Netherlands.
    Ya vraiment rien qui va avec ce pays, que ce soit la justice, l'économie, etc

  3. #343
    Membre extrêmement actif Avatar de Jon Shannow
    Homme Profil pro
    Responsable de service informatique
    Inscrit en
    Avril 2011
    Messages
    4 542
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 61
    Localisation : France, Ille et Vilaine (Bretagne)

    Informations professionnelles :
    Activité : Responsable de service informatique
    Secteur : High Tech - Électronique et micro-électronique

    Informations forums :
    Inscription : Avril 2011
    Messages : 4 542
    Points : 10 367
    Points
    10 367
    Par défaut
    Citation Envoyé par OrthodoxWindows Voir le message
    ...
    Et la réalité.
    Nom : Gollum.jpg
Affichages : 2057
Taille : 74,7 Ko

  4. #344
    Membre actif
    Homme Profil pro
    Développeur .NET
    Inscrit en
    Juillet 2021
    Messages
    87
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 34
    Localisation : France, Isère (Rhône Alpes)

    Informations professionnelles :
    Activité : Développeur .NET

    Informations forums :
    Inscription : Juillet 2021
    Messages : 87
    Points : 274
    Points
    274
    Par défaut
    "...pour vous jouer un mauvais tour !"

  5. #345
    Expert éminent sénior

    Femme Profil pro
    Rédacteur Web
    Inscrit en
    Mars 2020
    Messages
    838
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur Web

    Informations forums :
    Inscription : Mars 2020
    Messages : 838
    Points : 58 043
    Points
    58 043
    Par défaut La société "Parler" ferme temporairement ses portes.
    La société Parler ferme temporairement ses portes, la société de médias numériques Starboard nouveau propriétaire de Parler estime que la plateforme conservatrice a besoin d'une refonte
    en profondeur

    Parler, une plateforme qui a émergé de la réaction des médias sociaux de l'ère Trump, a été acquise par une nouvelle société qui prévoit de la fermer temporairement. Le conglomérat de médias numériques Starboard, qui a récemment changé de nom pour s'appeler Olympic Media, a annoncé vendredi qu'il avait acquis Parler et qu'il prévoyait de le fermer temporairement pour lancer une version remaniée du réseau social.

    Nom : Screenshot_2023-04-17 Parler shuts down as new owner says conservative platform needs big revamp.png
Affichages : 2070
Taille : 454,9 Ko

    La plateforme Parler a été vendue et fermée pendant que son nouveau propriétaire procède à une « évaluation stratégique ». Le nouveau propriétaire, Starboard, affirme que la plateforme reviendra un jour ou l'autre. Le site web de Parler n'est plus qu'une simple page contenant le communiqué de presse d'aujourd'hui annonçant l'acquisition, qui a été réalisée sans que les conditions financières ne soient divulguées. « Il n'y a plus personne de raisonnable qui croit qu'un clone de Twitter juste pour les conservateurs est une entreprise viable », dit l'annonce de l'acquisition, qui promet une refonte.

    « Alors que l'application Parler, telle qu'elle est actuellement constituée, sera retirée de l'exploitation pour subir une évaluation stratégique, nous, chez Starboard, voyons de formidables opportunités dans de multiples secteurs pour continuer à servir les communautés marginalisées ou même carrément censurées - même au-delà de la politique intérieure », indique le communiqué de presse. Aucune date de retour n'a été mentionnée.

    Les conditions financières de l'opération n'ont pas été divulguées. Starboard prévoit que l'acquisition sera rentable d'ici la fin du deuxième trimestre 2023. « L'importante base d'utilisateurs de Parler et les actifs stratégiques supplémentaires représentent une énorme opportunité pour Starboard de continuer à construire agressivement dans nos activités de médias et d'édition. L'équipe de Parler a construit une audience exceptionnelle et nous sommes impatients d'intégrer cette audience sur toutes nos plateformes existantes », a déclaré Ryan Coyne, PDG de Starboard, dans le communiqué de presse.

    Cette annonce intervient quelques mois après l'échec d'un accord d'acquisition entre Parler et Kanye West, qui se fait désormais appeler Ye. Le propriétaire de Parler et Ye s'étaient séparés sans conclure l'accord, avait alors déclaré le réseau social. Parler a annulé l'accord quelques semaines après que Ye a fait l'éloge d'Adolf Hitler et des nazis lors d'une apparition dans l'émission Infowars d'Alex Jones.

    Parler a gagné en popularité en 2021, au moment de l'insurrection du 6 janvier, après que des entreprises de médias sociaux comme Twitter et Facebook ont banni l'ancien président Donald Trump de leurs plateformes. Nombre de ses partisans ont afflué sur Parler, dont les directives communautaires étaient moins strictes. Le réseau social s'est hissé à la première place de l'App Store quelques jours après l'insurrection, mais a été retiré de Google Play le 8 janvier 2021. Parler a également été exclu d'Amazon Web Services juste après le 6 janvier, ce qui l'a mis hors ligne jusqu'à ce qu'il trouve un autre hébergement. Apple et Google ont exclu Parler de leurs boutiques d'applications, mais l'ont finalement autorisé à revenir après que Parler a accepté de modifier son approche de la modération des contenus.

    En septembre dernier, Parler a révélé qu'elle s'était restructurée en Parlement Technologies et qu'elle avait acquis une société de cloud computing appelée Dynascale afin d'élargir sa vision au-delà de l'offre d'une application de médias sociaux et de fournir une infrastructure aux entreprises qui courent le risque d'être rejetées par les fournisseurs traditionnels. Parler est l'une des nombreuses plateformes, dont Gettr et Truth Social, qui se sont imposées comme des alternatives de libre expression aux réseaux de médias sociaux les plus populaires. Un autre concurrent de Parler pourrait être Twitter, qui a été racheté par Elon Musk l'année dernière. Depuis cette acquisition, le réseau de médias sociaux est devenu plus laxiste dans ses politiques et a également réintégré Trump, bien que l'ancien président n'ait pas encore tweeté à partir de son compte.

    Selon le Wall Street Journal, Parler compte environ 250 000 utilisateurs mensuels. Facebook et TikTok comptent chacun plus d'un milliard d'utilisateurs, note le journal.

    Parler a fermé temporairement pendant que Starboard travaille sur une refonte. « Nous, à Starboard, voyons d'énormes opportunités dans de multiples secteurs pour continuer à servir les communautés marginalisées ou même carrément censurées même au-delà de la politique intérieure », peut-on lire dans une partie de la déclaration publiée sur le site web de Parler.

    « Les progrès de la technologie de l'IA, ainsi que la base de code existante et d'autres nouvelles fonctionnalités, offrent à Starboard la possibilité de commencer à servir les communautés en ligne non soutenues - en leur construisant un foyer loin de la réglementation ad hoc des plates-formes qui les détestent », ajoute le communiqué.

    Parler a déclaré avoir environ 16,5 millions d'utilisateurs enregistrés, mais sa base d'utilisateurs actifs semble être beaucoup plus petite. La société d'analyse SimilarWeb indique que le site web de Parler a reçu 851 000 visites sur ordinateur et sur mobile au cours du mois dernier. En octobre, TechCrunch a rapporté que Parler avait 250 000 utilisateurs actifs mensuels sur ses applications iOS et Android.

    « La société n'a pas de raison de croire qu'un clone de Twitter pour les conservateurs est une entreprise viable. En se recentrant sur l'espace du cloud et de l'infrastructure informatique, George Farmer a fait un travail exceptionnel en menant avec succès Parlement dans un secteur d'importance critique où il a déjà commencé à exceller », a déclaré Starboard dans son communiqué.

    Starboard, fondée en 2018, a récemment changé de nom par rapport à son ancien nom, Olympic Media. La société s'est classée n° 13 dans la version 2021 de la liste Inc. 5000, la liste des entreprises à la croissance la plus rapide. Starboard se concentre principalement sur le conseil et l'édition numériques ; la société possède des sites d'information à tendance conservatrice, American Wire et BizPac Review.

    Source : Parler

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi :

    Le réseau social Parler rachète une société appelée Dynascale afin de fournir des services cloud "non annulables", aux entreprises qui risquent de se faire éjecter par les fournisseurs traditionnels

    Kanye West achète la plateforme de médias sociaux conservatrice Parler, d'après Parler, cette acquisition permettra de créer un "écosystème où toutes les voix sont les bienvenues"

    Le propriétaire de Parler, l'alternative « anti-censure » à Twitter, a licencié environ 75% du personnel selon un rapport. Une opération qui a commencé après l'annulation du rachat par Kanye West

    Le site web de Parler est de nouveau en ligne, mais l'application n'est toujours pas disponible dans les app stores, le site a été rétabli dimanche par un message du PDG John Matze

  6. #346
    Chroniqueur Actualités
    Avatar de Bruno
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Mai 2019
    Messages
    1 952
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Cameroun

    Informations professionnelles :
    Activité : Rédacteur technique
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Mai 2019
    Messages : 1 952
    Points : 37 966
    Points
    37 966
    Par défaut YouTube autorise désormais les vidéos qui prétendent que Trump a gagné les élections de 2020, cette décision
    YouTube autorise désormais les vidéos qui prétendent que Trump a gagné les élections de 2020,
    cette décision, qui intervient avant les élections de 2024, annule une politique mise en œuvre en 2020

    YouTube a annoncé qu’il cessera de supprimer les vidéos qui propagent des mensonges sur l’élection présidentielle américaine de 2020. La plateforme a déclaré que cette décision vise à préserver la liberté d’expression politique, même si elle peut favoriser la désinformation. YouTube a également affirmé qu’il continuera à mettre en avant les sources d’information autorisées et à interdire les contenus qui visent à tromper ou à décourager les électeurs. Cette mesure intervient alors que l’ancien président Trump, qui continue de revendiquer sa victoire, se présente à nouveau pour l’élection de 2024.

    « Lorsque nous élaborons nos politiques, nous gardons toujours deux objectifs à l'esprit : protéger notre communauté et offrir un lieu de discussion et de débat ouvert. Ces objectifs sont parfois en tension l'un avec l'autre, et il n'y a peut-être aucun domaine où la recherche d'un équilibre est plus complexe que celui du discours politique. La capacité à débattre ouvertement d'idées politiques, même celles qui sont controversées ou fondées sur des hypothèses réfutées, est essentielle au bon fonctionnement d'une société démocratique, en particulier en pleine période électorale ».

    Nom : YouTube1.jpg
Affichages : 2153
Taille : 8,7 Ko

    YouTube a d'abord mis en place une disposition de sa politique de désinformation électorale axée sur l'intégrité des élections présidentielles américaines passées en décembre 2020, une fois que la date de certification de la sphère de sécurité des États avait été dépassée. Deux ans, des dizaines de milliers de suppressions de vidéos et un cycle électoral plus tard, elle a reconnu qu'il était temps de réévaluer les effets de cette politique dans le nouveau paysage actuel.

    Dans le contexte actuel, « nous constatons que si la suppression de ce contenu permet de lutter contre la désinformation, elle pourrait également avoir pour effet involontaire de restreindre le discours politique sans réduire de manière significative le risque de violence ou d'autres préjudices dans le monde réel. Dans cette optique, et alors que la campagne 2024 est déjà bien engagée, nous cesserons de supprimer les contenus qui avancent de fausses allégations selon lesquelles des fraudes, des erreurs ou des dysfonctionnements généralisés se seraient produits lors de l'élection présidentielle de 2020 et d'autres élections présidentielles américaines antérieures. » Cette mesure est entrée en vigueur le vendredi 2 juin. « Comme pour toute mise à jour de nos politiques, nous avons soigneusement réfléchi à ce changement », écrit YouTube.

    Le 9 décembre 2020, YouTube a interdit les vidéos qui affirmaient à tort que le président Trump avait remporté l'élection présidentielle américaine. Depuis lors, la plateforme a supprimé des « dizaines de milliers » de vidéos qui enfreignaient cette politique. Le 2 juin 2023, YouTube est revenu sur cette décision : le géant de la vidéo a annoncé qu'il « cessera de supprimer les contenus qui avancent de fausses affirmations selon lesquelles une fraude généralisée, des erreurs ou des pépins se sont produits lors de l'élection présidentielle de 2020 et d'autres élections présidentielles américaines passées. »

    Pourquoi YouTube fait-il ce changement ? Dans un billet de blog non signé publié vendredi, le service appartenant à Google a tenté de l'expliquer de la manière suivante : « Dans le contexte actuel, nous estimons que si la suppression de ce contenu permet de lutter contre la désinformation, elle pourrait également avoir pour effet involontaire de restreindre le discours politique sans réduire de manière significative le risque de violence ou d'autres préjudices dans le monde réel. »
    YouTube a également indiqué : « Comme pour toute mise à jour de nos politiques, nous avons soigneusement réfléchi à ce changement. »

    Trump, qui continue d’alléguer qu'il a remporté l'élection de 2020, brigue l'investiture républicaine pour l'élection présidentielle américaine de 2024. À la suite de l'attaque pro-Trump du 6 janvier 2021 contre le Capitole des États-Unis, YouTube a suspendu la chaîne de Trump après avoir déterminé qu'il avait enfreint la politique de la plateforme contre l'incitation à la violence. YouTube a rétabli la chaîne de l'ex-président en mars dernier, justifiant cette décision en assurant que le fait de permettre aux électeurs « d'entendre de manière égale les principaux candidats nationaux » l'emportait sur toute menace potentielle de violence.

    Le 7 janvier 2021, Facebook (qui est récemment devenu Meta) a procédé au blocage des comptes Facebook et Instagram de Donald Trump sur une durée de 24 heures. Le lendemain, Facebook s'est ravisé en optant pour un blocage d'une durée indéterminée et pendant « au moins les deux prochaines semaines, jusqu'à ce que la transition pacifique du pouvoir soit terminée », selon les propos du PDG de Facebook, Mark Zuckerberg.

    Avec la saison électorale 2024 en cours, selon le dernier article de blog de YouTube, « la capacité de débattre ouvertement d'idées politiques, même celles qui sont controversées ou basées sur des hypothèses réfutées, est essentielle au fonctionnement d'une société démocratique - en particulier au milieu de la saison électorale. »
    YouTube dispose d'une équipe spécialisée dans les élections, composée de membres de sa cellule de renseignement, de son équipe « Confiance et sécurité » et de son équipe « Produits », qui suit l'évolution de la situation en temps réel et adapte leur stratégie en fonction des besoins.

    Comme d'autres réseaux sociaux, YouTube a suspendu le compte de Trump après l'attaque du Capitole. En mars de cette année, YouTube a autorisé le retour de Trump en déclarant : « Nous avons soigneusement évalué le risque persistant de violence dans le monde réel, tout en tenant compte de la possibilité pour les électeurs d'entendre également les principaux candidats nationaux à l'approche d'une élection. Cette chaîne continuera à être soumise à nos politiques, comme n'importe quelle autre chaîne sur YouTube ».


    Facebook avait suivi Twitter, après avoir initialement retiré une vidéo du président, en disant que la société avait évalué quelques violations de la politique, « ce qui entraînera un blocage des fonctionnalités pendant 24 heures, ce qui signifie qu'il perdra la possibilité de poster sur la plateforme pendant cette période ». Maintenant, le blocage de Trump va s’étendre sur au moins deux semaines, jusqu’à la fin de son mandat.

    « Nous annonçons aujourd'hui de nouveaux protocoles d'application à appliquer dans des cas exceptionnels comme celui-ci, et nous confirmons la sanction limitée dans le temps conformément à ces protocoles que nous appliquons aux comptes de M. Trump. Compte tenu de la gravité des circonstances qui ont conduit à la suspension de M. Trump, nous pensons que ses actions ont constitué une grave violation de nos règles qui méritent la sanction la plus élevée disponible en vertu des nouveaux protocoles d'application. Nous suspendons ses comptes pendant deux ans, à compter de la date de la suspension initiale le 7 janvier de cette année.

    Twitter a annulé son interdiction de Trump en novembre 2022, peu après qu'Elon Musk a racheté l'entreprise. Meta a annoncé qu'elle autoriserait à nouveau Trump sur Facebook en janvier 2023.

    L'ancien président américain Donald Trump a posté sur YouTube et Facebook en mars de cette année, dans un retour aux plateformes technologiques qu'il utilisait pour alimenter son ascension politique jusqu'à ce que ses comptes soient suspendus à la suite de l'attaque du 6 janvier 2021 contre le Congrès par ses partisans. Les publications sur sa page Facebook et sa chaîne YouTube, intitulées "I'M BACK!", montrent une vidéo de CNN annonçant l'élection de Trump à la présidence lors de la course de 2016 contre Hillary Clinton. Elle s'estompe ensuite sur un écran « Trump 2024 ». YouTube a restauré la chaîne de Trump plus tôt vendredi. Meta Platforms avait rétabli les comptes Facebook et Instagram de Trump plus tôt cette année.

    YouTube a précisé que certains aspects de sa politique de désinformation électorale restaient en vigueur, notamment la mise en évidence des sources faisant autorité dans les recherches et les recommandations et l'interdiction des messages visant à induire les électeurs en erreur sur le lieu et la manière de voter. Voici ce qui ne change pas :

    • YouTube veille à ce que les internautes qui se rendent sur YouTube à la recherche d'actualités et d'informations sur les élections voient le contenu de sources faisant autorité figurer en bonne place dans les recherches et les recommandations. Par exemple, à la suite des élections américaines de 2020, l’équipe YouTube a constaté que les vidéos provenant de sources faisant autorité, comme les organes de presse, étaient les plus regardées et les plus recommandées sur YouTube. Et ses panneaux d'information sur les élections de 2020, avec un contexte pertinent allant des lieux de vote aux résultats des élections en direct, ont été visionnés collectivement plus de 4,5 milliards de fois ;
    • toutes ses politiques de désinformation électorale restent en place, y compris celles qui interdisent les contenus visant à induire les électeurs en erreur sur l'heure, le lieu, les moyens ou les conditions d'éligibilité pour voter ;
    • les fausses affirmations susceptibles de décourager le vote, y compris celles qui contestent la validité du vote par correspondance ; et les contenus qui encouragent d'autres personnes à interférer avec les processus démocratiques.

    Le reste des règles continue de s'appliquer à tous les utilisateurs de YouTube, pour tous les types de contenu, y compris les élections. Il s'agit notamment de politiques contre les discours haineux, le harcèlement et l'incitation à la violence.

    Source : YouTube

    Et vous ?

    Les arguments avancés par YouTube pour justifier sa décision de ne plus supprimer les vidéos qui prétendent que Trump a remporté l’élection de 2020 vous paraissent-ils convaincants ?

    Quels sont selon vous, les risques de cette décision pour la démocratie, la liberté d’expression et la sécurité publique ?

    Quelle est votre opinion personnelle sur la décision de YouTube ? Êtes-vous d’accord ou en désaccord avec elle ? Pourquoi ?

    Voir aussi :

    YouTube supprime la vidéo de Trump et suspend la mise en ligne de nouvelles vidéos pendant au moins 7 jours, les commentaires sous les vidéos seraient également indéfiniment désactivés

    « Je suis de retour » : Donald Trump signe ses premières publications sur Facebook et YouTube, plus de deux ans après la suspension de ses comptes suite à l'insurrection du Capitole des États-Unis

    Twitter verrouille le compte du président Trump pendant 12 heures et l'avertit d'une suspension permanente, Facebook retire ses publications incriminées et déclare une « situation d'urgence »

    Le président Trump suspendu « indéfiniment » sur Facebook et Instagram, du moins jusqu'à la fin de son mandat, Twitch, le service de streaming vidéo en direct, fait de même

  7. #347
    Expert éminent Avatar de marsupial
    Homme Profil pro
    Retraité
    Inscrit en
    Mars 2014
    Messages
    1 790
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Retraité

    Informations forums :
    Inscription : Mars 2014
    Messages : 1 790
    Points : 7 285
    Points
    7 285
    Par défaut
    J'ai lu la news ce week-end : les américains gueulent comme des putois sur cette décision de Google et appellent au boycott de YouTube. A l'heure des fakes générées par les ia de tout poil, cela me semble peu judicieux d'autoriser le débat sur ce sujet sensible qui a déjà fait beaucoup trop de morts.

  8. #348
    Membre éprouvé
    Homme Profil pro
    Administrateur systèmes et réseaux
    Inscrit en
    Août 2018
    Messages
    400
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 55
    Localisation : Autre

    Informations professionnelles :
    Activité : Administrateur systèmes et réseaux

    Informations forums :
    Inscription : Août 2018
    Messages : 400
    Points : 1 223
    Points
    1 223
    Par défaut
    Sont ils en cours de rachat par Elon Musk (rires) ??

  9. #349
    Inactif  
    Profil pro
    undef
    Inscrit en
    Février 2013
    Messages
    1 001
    Détails du profil
    Informations personnelles :
    Localisation : France, Lot (Midi Pyrénées)

    Informations professionnelles :
    Activité : undef

    Informations forums :
    Inscription : Février 2013
    Messages : 1 001
    Points : 3 671
    Points
    3 671
    Par défaut
    Leurs analyses doivent donner le camp Républicain vainqueur de la prochaine course à la Maison Blanche, et peut-être même de Trump lui-même. Ça, la grande faillite en cours du délire Woke et leurs tentatives passée de contrôle de l'information les obligent à redevenir démocrates.

  10. #350
    Membre éprouvé
    Homme Profil pro
    Administrateur Systèmes, Clouds et Réseaux /CAO/DAO/Ingénierie Electrotechnique
    Inscrit en
    Décembre 2014
    Messages
    454
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 47
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : Administrateur Systèmes, Clouds et Réseaux /CAO/DAO/Ingénierie Electrotechnique

    Informations forums :
    Inscription : Décembre 2014
    Messages : 454
    Points : 998
    Points
    998
    Par défaut
    *roule un papier avec "grands réseaux sociaux" écrit dessus, vise la poubelle et marque.

    Youtube n'est que le garant de ses propres intérêts, je plains ceux qui croient qu'il est garant d'autre chose quand il se pare d'une pseudo éthique c'est en réalité pour conserver la main mise dans une guerre d' (de dés)information. Ce n'est pas une histoire (hélas) de bons contre les méchants, mais de qui aura la main mise sur les esprits. Je n'ai pas le capital pour voir mes intérêts se refléter dans ceux de youtube (ou autres). Ca va peut être faire complotiste, mais ce n'est pas parce que le loup me dit de me méfier du boucher que je vais me réfugier chez le premier.

  11. #351
    Membre extrêmement actif Avatar de ddoumeche
    Homme Profil pro
    Ingénieur recherche et développement
    Inscrit en
    Octobre 2007
    Messages
    1 687
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Singapour

    Informations professionnelles :
    Activité : Ingénieur recherche et développement

    Informations forums :
    Inscription : Octobre 2007
    Messages : 1 687
    Points : 2 014
    Points
    2 014
    Par défaut
    Il y a de l'eau dans le gaz, des innocents ont été condamnées à des années de prison et la junte sent le sapin. Même le grand timonier ne tient plus debout tout seul, le retour de baton sera terrible.

  12. #352
    Membre expérimenté

    Homme Profil pro
    Collégien
    Inscrit en
    Juillet 2010
    Messages
    563
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Afghanistan

    Informations professionnelles :
    Activité : Collégien

    Informations forums :
    Inscription : Juillet 2010
    Messages : 563
    Points : 1 431
    Points
    1 431
    Par défaut
    J'ai lu la news ce week-end : les américains gueulent comme des putois sur cette décision de Google et appellent au boycott de YouTube. A l'heure des fakes générées par les ia de tout poil, cela me semble peu judicieux d'autoriser le débat sur ce sujet sensible qui a déjà fait beaucoup trop de morts.
    Je suis bien d'accord il faut protéger les gens, en interdisant les débats sur les sujets trop sensibles. C'est pour leur bien.

  13. #353
    Membre régulier
    Profil pro
    Data Engineer
    Inscrit en
    Octobre 2006
    Messages
    32
    Détails du profil
    Informations personnelles :
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Data Engineer
    Secteur : High Tech - Produits et services télécom et Internet

    Informations forums :
    Inscription : Octobre 2006
    Messages : 32
    Points : 79
    Points
    79
    Par défaut manque de courage
    Voila une décision qui donnera de la matière à études dans 30 ans pour les chercheurs en sciences politique

  14. #354
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 997
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 997
    Points : 208 098
    Points
    208 098
    Par défaut Meta dévoile une vaste opération d’influence chinoise sévissant sur plus de 50 plateformes
    La Chine derrière « la plus vaste opération d’influence multiplateforme connue au monde » découverte par Meta ciblant plus de 50 plateformes,
    des milliers de comptes Facebook supprimés

    Meta a annoncé mardi la suppression de milliers de faux comptes de Facebook qui étaient exploités dans le cadre de « la plus grande opération d’influence secrète multiplateforme connue au monde » et qui, selon les chercheurs, sont liés à des individus associés aux forces de l’ordre chinoises. Ben Nimmo, responsable mondial des renseignements sur les menaces chez Meta, a déclaré que cette opération chinoise « est la plus grande opération d'influence en ligne que nous connaissions dans le monde aujourd'hui. Elle opère sur plus de 50 plateformes et services différents Facebook, YouTube, Twitter, Tik Tok, Reddit, Quora, Pinterest ».

    Pour la toute première fois, Meta a pu attribuer la campagne de désinformation massive à des individus associés aux forces de l’ordre chinoises. Ciblant l'opération chinoise, Meta a supprimé 7 704 comptes Facebook, 954 pages, 15 groupes et 15 comptes Instagram pour violation de sa politique contre les comportements inauthentiques coordonnés, dont les efforts ont utilisé de fausses versions de sites Web légitimes pour diffuser de faux contenus. Le vaste réseau, originaire de Chine, ciblait Taiwan, les États-Unis, l'Australie, le Royaume-Uni, le Japon et le public chinois du monde entier, selon le rapport Adversarial Threat Report de l'entreprise.

    L'activité multiplateforme utilisée dans l'opération, connue sous le nom de « Spamouflage » (baptisée ainsi « car ils utilisent le spam pour camoufler leurs messages politiques »), ciblait plus de 50 plateformes et forums, selon le rapport. Outre Facebook et Instagram, les cibles de la campagne de désinformation comprenaient X – la plateforme anciennement connue sous le nom de Twitter – YouTube, TikTok, Reddit et Pinterest.

    Meta a découvert que des groupes distincts de faux comptes étaient gérés depuis différentes régions de Chine, en groupes qui « pouvaient avoir travaillé à partir d'un emplacement partagé, comme un bureau » :

    Citation Envoyé par Meta
    Notre enquête a révélé que le réseau Spamouflage est géré par des opérateurs géographiquement dispersés à travers la Chine qui semblent disposer d'un accès centralisé à Internet et de directions de contenu.

    Nous avons identifié plusieurs groupes distincts de faux comptes gérés dans de nombreuses régions différentes de la Chine. Leur comportement suggérait qu'ils étaient exploités par des groupes qui travaillaient peut-être à partir d'un lieu partagé, tel qu'un bureau. Chaque cluster a travaillé selon un schéma de travail clair, avec des poussées d'activité en milieu de matinée et en début d'après-midi, heure de Pékin, avec des pauses pour le déjeuner et le dîner, puis une dernière poussée d'activité en soirée.

    Même si certains de ces faux comptes étaient gérés à des centaines de kilomètres les uns des autres, ils partageaient à plusieurs reprises la même infrastructure Internet proxy – souvent aux États-Unis, probablement dans le but de dissimuler leurs origines.

    Ces groupes d’activités partageaient également à plusieurs reprises des contenus identiques sur de nombreuses plateformes Internet – pas seulement des liens et des articles, mais également de courts commentaires « personnels ». Ces commentaires ont été conçus pour paraître uniques et personnels, utilisant des termes tels que « je » et « nous » et faisant référence à des expériences et croyances individuelles. Cependant, des centaines de comptes différents ont fait les mêmes commentaires « personnels » sur de nombreux services et sites Web différents, indiquant qu’ils étaient probablement chargés de les publier de manière centralisée. Parfois, de faux comptes publiaient un commentaire accompagné de ce qui semblait être un numéro de série, suggérant qu'il avait peut-être été copié-collé à partir d'une liste numérotée.
    Nom : spamouflage.png
Affichages : 2373
Taille : 254,6 Ko

    Cette activité fait écho à celle alléguée dans l'acte d'accusation du ministère américain de la Défense, qui note comment plusieurs comptes gérés par le groupe 912 sur Facebook ont utilisé le même appareil et la même adresse IP (il s'agissait d'un fournisseur de services Internet basé au Texas) pour diffamer un éminent expatrié critique du Parti communiste chinois.

    Plus de détails sur cette opération

    Lorsque Spamouflage a été découvert pour la première fois en 2019, il se concentrait généralement sur Facebook, Twitter et YouTube. Au fil du temps, à mesure que les plateformes commençaient à détecter et à bloquer ces efforts de spam, l'opération a commencé à donner la priorité aux petites plateformes, y compris les forums locaux en Asie et en Afrique. Une grande partie de l'activité que nous avons récemment interrompue sur Facebook consistait en des partages de liens vers des articles sur d'autres plateformes où l'opération avait débutée.

    Les sites et forums utilisés par cette opération sont remarquables par leur diversité et leur répartition géographique : nous avons identifié plus de 50 plateformes et forums sur lesquels nous évaluons que cette campagne était active. Au-delà de la publication sur Facebook et Instagram, Spamouflage a largement utilisé Medium, X (alias Twitter), Reddit, YouTube, Vimeo et Soundcloud. Il gérait des comptes sur Quora – répondant parfois par des commentaires prochinois à des questions qui n'avaient rien à voir avec le sujet. Il a publié des centaines de dessins animés sur Pinterest, Pixiv et le site Web d'art artstation[.]com.

    Nous avons également identifié des comptes susceptibles de spam sur TikTok, Blogspot et LiveJournal, ainsi que sur les plateformes russes VKontakte et Odnoklassniki. Plus loin, nous avons identifié une activité probable sur le forum nigérian Nairaland[.]com, le forum indonésien kaskus[.]co[.]id, le forum financier chinois nanyangmoney[.]com et le forum local australien Melbournechinese[.]net.

    Un manque cruel d'efficacité

    Malgré son ampleur et les ressources qui la sous-tendent, l’opération d’influence ne semble pas avoir été particulièrement efficace (même si le ministère américain de la Justice a noté de multiples tentatives pénibles visant à harceler les membres des familles de ressortissants chinois qui critiquaient Pékin depuis l’étranger).

    Parmi les histoires partagées à plusieurs reprises par l'opération – y compris sur un sous-forum spécialisé et largement inactif pour les employés du gouvernement pakistanais – figurait un message en anglais mal écrit intitulé “Queen Elizabeth II Dead or Related to New Prime Minister Truss?" (que l'on pourrait traduire par « La reine Elizabeth II est morte ou liée au nouveau Premier ministre Truss ? », ça fait mal aux oreilles n'est-ce pas ?) qui voulait sans doute suggérer que le désormais ancien Premier ministre a peut-être « déplu à la reine et précipité sa mort ».

    Nom : queen.png
Affichages : 1897
Taille : 16,1 Ko
    à gauche l'original, à droite le titre équivalent en anglais

    Les résultats de recherche pour ce même titre montrent que le contenu est publié sur Flickr, Blogspot, TikTok, Instagram et Medium, bien qu'aucun de ces événements ne semble avoir suscité un engagement significatif.

    Meta a noté que la tactique du réseau consistant à « diffuser » le même article sur différentes plateformes le rendait plus résistant aux retraits, mais a suggéré que cet avantage aurait pu être accidentel pour les opérateurs qui « essayaient peut-être simplement d'atteindre un quota de production pour leur campagne ».

    Malgré le très grand nombre de comptes et de plateformes utilisés, Spamouflage a toujours eu du mal à aller au-delà de sa propre (fausse) chambre d'écho. De nombreux commentaires sur les publications de Spamouflage que nous avons observés provenaient d'autres comptes de Spamouflage essayant de donner l'impression qu'ils étaient plus populaires qu'ils ne l'étaient en réalité. Seuls quelques cas ont été signalés où le contenu de Spamouflage sur Twitter et YouTube a été amplifié par des influenceurs du monde réel. Il est donc important de continuer à signaler et à prendre des mesures contre ces tentatives tout en réalisant que sa capacité globale à atteindre des audiences authentiques a toujours été très faible.

    Cela est probablement dû en partie au mauvais contrôle de la qualité de l’opération. Comme nous l’avons mentionné précédemment, de nombreux comptes et pages de Spamouflage semblent avoir été achetés auprès de tiers dans d’autres pays, notamment au Vietnam et au Bangladesh. Certaines de ces pages publiaient des publicités sans rapport avec CIB pour des produits tels que des coques de téléphone, de la lingerie, des vêtements ou des accessoires pour enfants, avant qu'ils ne soient acquis et ne s'engagent dans une activité liée au Spamouflage. Les opérateurs semblent souvent avoir commencé à utiliser ces comptes et ces pages sans apporter aucune modification, ce qui conduit à des comportements très idiosyncratiques où, par exemple, une page qui publiait des publicités de lingerie en chinois est brusquement passée à l'anglais et a publié du contenu organique sur les émeutes au Kazakhstan.

    Des failles similaires caractérisent le contenu de l’opération. Un compte Medium lié à l'opération a publié le même article en chinois et en anglais critiquant le journaliste new-yorkais Jiayang Fan, mais le titre chinois était suivi du texte anglais, et vice versa. Les opérateurs publient des noms clés mal orthographiés – « Freud » au lieu de « Floyd », « Lv Pin » au lieu de « Lü Pin » (une militante féministe chinoise). Les opérateurs semblent avoir traduit automatiquement les légendes de leurs dessins sans les relire, de sorte qu'un article attaquant les « Safeguard Defenders » (un groupe de défense des droits de l'homme) était accompagné d'un dessin les qualifiant de « Garde de protection ».
    Source : rapport de Meta

    Et vous ?

    Quelle est votre opinion sur l’ingérence étrangère dans les élections américaines ? Pensez-vous que cela puisse avoir un impact sur le résultat du vote ?
    Comment réagiriez-vous si vous découvriez qu’un de vos contacts sur Facebook était en fait un faux compte lié à une opération d’influence secrète ?
    Que pensez-vous de la stratégie de Meta pour détecter et supprimer les faux comptes impliqués dans des opérations d’influence secrètes ? Trouvez-vous que Meta fait assez pour protéger ses utilisateurs et la démocratie ?
    Quelles sont les mesures que vous prenez pour vérifier la fiabilité des informations que vous consommez sur les réseaux sociaux ? Quels sont les signes qui vous alertent sur la possibilité d’un faux compte ou d’une fausse information ?

    Voir aussi :

    Une campagne de propagande pro-Chine sur les médias sociaux a utilisé de faux "followers" créés à partir d'images générées par l'IA, pour dénigrer les autorités américaines, selon un rapport

  15. #355
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 997
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 997
    Points : 208 098
    Points
    208 098
    Par défaut Un expert en IA « complètement terrifié » par les élections américaines de 2024
    Un expert en IA « complètement terrifié » par les élections américaines de 2024, qui s'annoncent comme un « tsunami de désinformation »
    avec l'avènement de des deepfakes

    L’élection présidentielle américaine de 2024 pourrait être marquée par une vague de désinformation sans précédent, alimentée par le développement de l’intelligence artificielle et la dégradation des garde-fous des réseaux sociaux, selon des experts. « Je m’attends à un tsunami de désinformation », a déclaré Oren Etzioni, un expert en IA et professeur émérite à l’Université de Washington. « Je ne peux pas le prouver. J’espère me tromper. Mais les ingrédients sont là, et je suis complètement terrifié. »

    L’un des principaux risques est lié à la diffusion des « deepfakes », des images, des vidéos ou des enregistrements audio truqués grâce à l’IA, qui peuvent faire dire ou faire n’importe quoi à n’importe qui. Ces faux contenus sont de plus en plus faciles à produire et à partager, et peuvent avoir un impact dévastateur sur la crédibilité des candidats ou sur la confiance dans le processus électoral. Par exemple, on pourrait voir un candidat politique comme le président Joe Biden être transporté à l’hôpital, ou un candidat dire des choses qu’il ou elle n’a jamais dites.


    Près de trois ans après que les émeutiers ont pris d’assaut le Capitole des États-Unis, les théories du complot à l’origine de cette violente attaque restent répandues sur les réseaux sociaux et dans l’actualité par câble : valises remplies de bulletins de vote, dépôts de bulletins de vote tard dans la nuit, des morts qui ont voté.

    Les experts préviennent que la situation sera probablement pire lors de la prochaine élection présidentielle. Les garde-fous qui ont tenté de contrer les fausses allégations la dernière fois s’érodent, tandis que les outils et les systèmes qui les créent et les diffusent ne font que se renforcer.

    De nombreux Américains, encouragés par l’ancien président Donald Trump, ont continué à promouvoir l’idée, sans fondement, selon laquelle on ne peut pas faire confiance aux élections partout aux États-Unis. Une majorité de républicains (57 %) estiment que le démocrate Joe Biden n’a pas été légitimement élu président.

    Parallèlement, les outils d’intelligence artificielle générative ont rendu beaucoup moins coûteuse et plus facile la diffusion du type de désinformation susceptible d’induire les électeurs en erreur et potentiellement d’influencer les élections. Et les sociétés de médias sociaux qui investissaient autrefois massivement dans la correction des faits ont changé leurs priorités.

    « Je m'attends à un tsunami de désinformation », a déclaré Oren Etzioni, expert en intelligence artificielle et professeur émérite à l'Université de Washington. « Je ne peux pas le prouver. J'espère avoir tort. Mais les ingrédients sont là et je suis complètement terrifié ».

    Les deepfakes IA deviennent de plus en plus répandus

    Les images et vidéos manipulées entourant les élections ne sont pas nouvelles, mais 2024 sera la première élection présidentielle américaine au cours de laquelle des outils d'IA sophistiqués capables de produire des contrefaçons convaincantes en quelques secondes ne seront qu'à quelques clics.

    Les images, vidéos et clips audio fabriqués, connus sous le nom de deepfakes, ont commencé à se frayer un chemin dans les publicités expérimentales de la campagne présidentielle. Des versions plus sinistres pourraient facilement se propager sans étiquette sur les réseaux sociaux et tromper les gens quelques jours avant une élection, a déclaré Etzioni.

    « On pourrait voir un candidat politique comme le président Biden être transporté d’urgence à l’hôpital », a-t-il déclaré. « On pourrait voir un candidat dire des choses qu’il n’avait jamais dites. On pourrait assister à une ruée sur les banques. On pouvait voir des bombardements et des violences qui n’ont jamais eu lieu ».

    Les contrefaçons de haute technologie ont déjà affecté les élections dans le monde entier, a déclaré Larry Norden, directeur principal des élections et du programme gouvernemental au Brennan Center for Justice. Quelques jours seulement avant les récentes élections en Slovaquie, des enregistrements audio générés par l’IA ont usurpé l’identité d’un candidat libéral discutant de projets visant à augmenter les prix de la bière et à truquer les élections. Les vérificateurs de faits se sont efforcés de les identifier comme étant faux, mais ils ont malgré tout été partagés comme étant réels sur les réseaux sociaux.

    Ces outils pourraient également être utilisés pour cibler des communautés spécifiques et affiner les messages trompeurs sur le vote. Cela pourrait ressembler à des messages texte persuasifs, à de fausses annonces sur les processus de vote partagées dans différentes langues sur WhatsApp, ou à de faux sites Web simulés pour ressembler à ceux officiels du gouvernement de votre région, ont déclaré les experts.

    Face à un contenu conçu pour paraître réel, « tout ce que nous avons été programmés pour faire au cours de l'évolution va entrer en jeu pour nous faire croire à la fabrication plutôt qu'à la réalité réelle », a déclaré Kathleen Hall Jamieson, spécialiste de la désinformation et directeur du Annenberg Public Policy Center de l'Université de Pennsylvanie.

    Les Républicains et les Démocrates du Congrès et de la Commission électorale fédérale étudient des mesures pour réglementer la technologie, mais ils n’ont finalisé aucune règle ou législation. Cela laisse aux États le soin d’adopter les seules restrictions jusqu’à présent sur les deepfakes politiques de l’IA.

    Une poignée d’États ont adopté des lois exigeant que les deepfakes soient étiquetés ou interdisant ceux qui dénaturent les candidats. Certaines sociétés de médias sociaux, notamment YouTube et Meta, qui possèdent Facebook et Instagram, ont introduit des politiques d'étiquetage de l'IA. Reste à voir s’ils seront capables d’arrêter systématiquement les contrevenants.

    Nom : meta.png
Affichages : 2421
Taille : 173,7 Ko

    Les protections des médias sociaux s'effondrent : l'exemple de X/Twitter

    Il y a un peu plus d’un an, Elon Musk a racheté Twitter et a commencé à licencier ses dirigeants, à démanteler certaines de ses fonctionnalités principales et à remodeler la plateforme de médias sociaux pour en faire ce que l’on appelle désormais X.

    Depuis lors, il a bouleversé le système de vérification, laissant les agents publics vulnérables aux usurpateurs d’identité. Il s'est débarrassé des équipes qui luttaient autrefois contre la désinformation sur la plateforme, laissant la communauté des utilisateurs se modérer. Et il a rétabli les comptes de théoriciens du complot et d’extrémistes qui étaient auparavant bannis.

    Les changements ont été applaudis par de nombreux conservateurs qui affirment que les précédentes tentatives de modération de Twitter équivalaient à une censure de leurs opinions. Mais les partisans des démocrates affirment que cette prise de pouvoir a transformé ce qui était autrefois une ressource imparfaite mais utile en matière d’information et d’informations électorales en une chambre d’écho largement non réglementée qui amplifie les discours de haine et la désinformation.

    Twitter était autrefois l'une des plateformes « les plus responsables », montrant sa volonté de tester des fonctionnalités susceptibles de réduire la désinformation, même au détriment de l'engagement, a déclaré Jesse Lehrich, co-fondateur d'Accountable Tech, un groupe de surveillance à but non lucratif.

    « De toute évidence, ils se trouvent désormais à l'autre extrémité du spectre », a-t-il déclaré, ajoutant qu'il pensait que les changements apportés par l'entreprise avaient permis à d'autres plateformes d'assouplir leurs propres politiques.

    Nom : you.png
Affichages : 1081
Taille : 540,0 Ko

    X, Meta et YouTube et leurs gestions de la désinformation

    À l’approche de 2024, X, Meta et YouTube ont supprimé ensemble 17 politiques protégeant contre la haine et la désinformation, selon un rapport de Free Press, une organisation à but non lucratif qui défend les droits civiques dans la technologie et les médias.

    En juin, YouTube a annoncé que même s’il continuerait de réglementer les contenus trompeurs sur les élections en cours ou à venir, il cesserait de supprimer les contenus prétendant faussement que les élections de 2020 ou d’autres élections américaines précédentes ont été entachées de « fraudes, erreurs ou problèmes généralisés ». La plateforme a déclaré que cette politique visait à protéger la capacité de « débattre ouvertement des idées politiques, même celles qui sont controversées ou basées sur des hypothèses réfutées ».

    Lehrich a déclaré que même si les entreprises technologiques veulent éviter de supprimer les contenus trompeurs, « il existe de nombreuses façons neutres en termes de contenu » pour les plateformes de réduire la propagation de la désinformation, depuis l'étiquetage des articles vieux de plusieurs mois jusqu'à rendre plus difficile le partage de contenu sans l'examiner. d'abord.

    X, Meta et YouTube ont également licencié des milliers d'employés et de sous-traitants depuis 2020, dont certains incluent des modérateurs de contenu.

    Le rétrécissement de ces équipes, que beaucoup attribuent à la pression politique, « prépare le terrain pour que les choses soient pires en 2024 qu’en 2020 », a déclaré Kate Starbird, experte en désinformation à l’Université de Washington.

    Meta explique sur son site Internet qu'elle compte quelque 40 000 personnes dévouées à la sûreté et à la sécurité et qu'elle gère « le plus grand réseau indépendant de vérification des faits de toutes les plateformes ». Il supprime également fréquemment les réseaux de faux comptes de réseaux sociaux visant à semer la discorde et la méfiance. « Aucune entreprise technologique n’en fait ou n’investit autant que Meta pour protéger les élections en ligne – pas seulement pendant les périodes électorales mais à tout moment », indique le message.

    Ivy Choi, porte-parole de YouTube, a déclaré que la plateforme était « fortement investie » dans la connexion des gens à du contenu de haute qualité sur YouTube, y compris pour les élections. Elle a souligné les panneaux de recommandation et d’information de la plateforme, qui fournissent aux utilisateurs des informations électorales fiables, et a déclaré que la plateforme supprimait les contenus qui induisaient les électeurs en erreur sur la manière de voter ou encourageaient l’ingérence dans le processus démocratique.

    La montée en puissance de TikTok et d’autres plateformes moins réglementées telles que Telegram, Truth Social et Gab a également créé davantage de silos d’informations en ligne où des allégations sans fondement peuvent se propager. Certaines applications particulièrement populaires parmi les communautés de couleur et les immigrés, comme WhatsApp et WeChat, s'appuient sur des discussions privées, ce qui rend difficile pour les groupes extérieurs de voir la désinformation qui peut se propager.

    « Je crains qu’en 2024, nous assistions à des faux récits recyclés et enracinés similaires, mais à des tactiques plus sophistiquées », a déclaré Roberta Braga, fondatrice et directrice exécutive du Digital Democracy Institute of the Americas. « Mais du côté positif, j'espère qu'il y aura plus de résilience sociale face à ces choses ».

    Conclusion

    « Si une campagne de désinformation ou de mésinformation est suffisamment efficace pour qu’un pourcentage suffisamment important de la population américaine ne croie pas que les résultats reflètent ce qui s’est réellement passé, alors le 6 janvier [date de l’assaut du Capitole par des partisans de Donald Trump] ressemblera probablement à un échauffement », a averti Laura Rosenberger, directrice du groupe de réflexion Alliance for Securing Democracy.

    Face à ce défi, certains acteurs tentent de sensibiliser le public et de renforcer la résilience démocratique. C’est le cas d'un groupe d’étudiants du Minnesota qui se concentre sur la promotion et la sensibilisation des électeurs. Le groupe organise des séances d’information avec des responsables électoraux, des experts en désinformation et des journalistes, et encourage les jeunes à s’informer auprès de sources fiables et diversifiées : « Nous voulons que les gens soient conscients de ce qui se passe, qu’ils sachent comment vérifier les faits et qu’ils comprennent comment les médias sociaux peuvent influencer leur perception de la réalité ».

    Sources : blog YouTube , Meta, rapport de l'ONG Free Press, Oren Etzioni, Minnesota

    Et vous ?

    Quelle est votre opinion sur le développement de l’IA et son impact sur la désinformation ?
    Pensez-vous que les réseaux sociaux devraient être plus responsables et régulés face à la diffusion des deepfakes et des fausses informations ?
    Comment vous informez-vous sur les candidats et les enjeux des élections en général et de l’élection américaine de 2024 en particulier ? Craignez-vous une ingérence de l'IA dans les élections présidentielles de votre pays tandis que la technologie se perfectionne ? Dans quelle mesure ?
    Quel rôle pensez-vous que les citoyens et les organisations civiles peuvent jouer pour renforcer la résilience démocratique face à la désinformation ?

  16. #356
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 997
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 997
    Points : 208 098
    Points
    208 098
    Par défaut La Chine utilise l’IA pour générer de la propagande sur YouTube pour influencer l'opinion du public anglophone
    La Chine utilise l’IA pour générer de la propagande sur YouTube : des puces ultra-fines aux projets d'infrastructures gigantesques,
    le contenu a été vu près de 120 millions de fois

    La Chine est de plus en plus active dans le domaine de l’intelligence artificielle, non seulement pour développer des technologies innovantes, mais aussi pour les utiliser à des fins de propagande. Sur YouTube, la plateforme de partage de vidéos la plus populaire au monde, de plus en plus de chaînes diffusent des contenus vantant les accomplissements de la Chine dans divers domaines, allant des puces électroniques ultra-fines aux projets d’infrastructures gigantesques. Ces contenus ne sont pas produits par des journalistes ou des experts, mais par des algorithmes d’IA capables de générer des textes, des images et des vidéos de manière synthétique ou modifiée.

    Lancée mi-2022, la campagne de propagande semble faire partie d'une tentative visant à « changer l'opinion du public anglophone » sur la Chine, y compris les efforts de Pékin pour améliorer sa technologie malgré les sanctions américaines, et a recueilli près de 120 millions de vues et 730 000 abonnés. jusqu'à présent, indique le rapport.


    Dans une vidéo YouTube, une voix en anglais annonce que la Chine a recherché et développé sa propre puce ultra-mince de 1 nanomètre (une affirmation stupéfiante étant donné que la puce n’est pas attendue dans les appareils commerciaux avant une décennie). « Les récentes nouvelles en provenance de Chine ont provoqué des vagues d'enthousiasme et d'étonnement à travers le monde », indique la voix off de la chaîne YouTube China Charged. « Cette avancée révolutionnaire est plus qu'une merveille technologique ; elle change la donne et redéfinira le paysage technologique mondial. »

    « Préparez-vous à être époustouflé », indique une autre vidéo, cette fois sur la chaîne Unbelievable Projects. « Bienvenue dans la vidéo d'aujourd'hui, dans laquelle nous découvrirons pourquoi l'Amérique reste à la traîne de la Chine en matière de développement des infrastructures ».

    Ces voix et leurs « bonnes nouvelles » concernant la Chine sont la preuve que le Parti communiste chinois et ses mandataires à l’étranger utilisent l’intelligence artificielle pour inonder YouTube de vidéos de propagande, selon un nouveau rapport qui décrit une « campagne d’influence inauthentique coordonnée » sur la plateforme.

    Les vidéos font partie d'au moins 30 chaînes identifiées par les chercheurs comme faisant partie du réseau « Shadow Play » promouvant les programmes pro-chinois et des récits anti-américains, selon l’Australian Strategic Policy Institute (ASPI).

    YouTube en a supprimé au moins 19.

    La campagne a utilisé « des entités et des voix off générées par l'intelligence artificielle » pour diffuser un contenu conforme aux récits du Parti communiste chinois sur au moins 30 chaînes YouTube, a indiqué l'institut dans son rapport intitulé « Shadow Play ».

    Nom : figure.png
Affichages : 4210
Taille : 565,7 Ko

    Une campagne d'influence baptisée « Shadow Play » par l'ASPI

    Ci-dessous, un extrait du billet de l'ASPI.

    ASPI a récemment observé une campagne d'influence inauthentique coordonnée provenant de YouTube qui fait la promotion de récits pro-chinois et anti-américains dans le but apparent de modifier l'opinion du public anglophone sur le rôle de ces pays dans la politique internationale, l'économie mondiale et la concurrence technologique stratégique. Cette nouvelle campagne (que l'ASPI a baptisée « Shadow Play ») a attiré un public exceptionnellement large et utilise des entités et des voix off générées par l'intelligence artificielle (IA) comme tactique permettant une large portée et une grande échelle. Elle se concentre sur la promotion d'une série de récits, y compris les efforts de la Chine pour « gagner la guerre technologique entre les États-Unis et la Chine » dans un contexte de sanctions américaines visant la Chine. Elle met également l’accent sur les entreprises chinoises et américaines, telles que les contenus pro-Huawei et anti-Apple.

    La campagne Shadow Play implique un réseau d'au moins 30 chaînes YouTube qui ont produit plus de 4 500 vidéos. Au moment de la publication, ces chaînes avaient attiré un peu moins de 120 millions de vues et 730 000 abonnés. Les comptes ont commencé à publier du contenu vers la mi-2022. La capacité de la campagne à rassembler et à accéder à un public mondial aussi large – et son potentiel à influencer secrètement l’opinion publique sur ces sujets – devraient être préoccupantes.

    ASPI a rapporté nos conclusions à YouTube/Google le 7 décembre 2023 pour commentaires. Au 8 décembre, ils avaient supprimé 19 chaînes YouTube du réseau Shadow Play : 10 pour comportement inauthentique coordonné et neuf pour spam. Dès leur publication, ces chaînes YouTube affichent une série de messages de YouTube indiquant pourquoi elles ont été supprimées. Par exemple, une chaîne a été « fermée pour violation des directives de la communauté YouTube », tandis qu’une autre a été « fermée en raison de violations multiples ou graves de la politique de YouTube en matière de spam, de pratiques trompeuses et de contenu trompeur ou d’autres violations des conditions d’utilisation ». ASPI a également rapporté nos découvertes à la société britannique d’intelligence artificielle Synthesia, dont les avatars IA étaient utilisés par le réseau. Le 14 décembre 2023, Synthesia a désactivé le compte Synthesia utilisé par l'un des comptes YouTube, pour violation de sa politique de reportage médiatique.

    Nous pensons qu’il est probable que cette nouvelle campagne soit menée par un acteur parlant le mandarin. Les indicateurs du comportement de cet acteur ne correspondent pas étroitement au comportement d’un acteur étatique connu menant des opérations d’influence en ligne. Notre analyse préliminaire est que l’opérateur de ce réseau pourrait être un acteur commercial opérant sous un certain degré de direction, de financement ou d’encouragement de l’État. Cela pourrait suggérer que certaines entreprises patriotiques mènent de plus en plus de campagnes liées à la Chine aux côtés d’acteurs gouvernementaux.

    La campagne se concentre sur la promotion de six récits. Deux des discours les plus dominants sont que la Chine est en train de « gagner » dans des domaines cruciaux de la concurrence mondiale : premièrement, dans la « guerre technologique entre les États-Unis et la Chine » et, deuxièmement, dans la compétition pour les terres rares et les minéraux critiques. D’autres discours clés expriment que les États-Unis sont sur le point de s'effondrer et que leurs partenariats d'alliance se fracturent, que la Chine et la Russie sont des acteurs géopolitiques responsables et compétents, que le dollar américain et l'économie américaine sont faibles, et que la Chine est hautement capable et digne de confiance pour fournir des projets d'infrastructures massives.

    Nom : génére.png
Affichages : 1640
Taille : 318,0 Ko
    La présentatrice d'actualités « Yani » a été généré par l’IA de Sogou et est visible sur le site Weibo de l’entreprise. (Rapport Shadow Play de l’Australian Strategic Policy Institute)

    Campagne dirigée par l'État

    L'auteur du rapport, Jacinta Keast, a déclaré que les chercheurs avaient attribué une grande partie du contenu des chaînes à des articles provenant des médias d'information chinois fortement contrôlés en Chine.

    « Beaucoup de ces histoires étaient souvent des histoires qui n'étaient réellement apparues et qui étaient très probablement apparues pour la première fois que dans l'écosystème médiatique de la Chine continentale », a-t-elle déclaré. « Nous pensons qu'à ce stade, il s'agit probablement d'une campagne dirigée et/ou soutenue par l'État chinois, menée par un entrepreneur ou peut-être une entreprise chinoise patriote qui a été encouragée à entreprendre cette campagne », a déclaré Keast à Radio Free Asia dans une récente interview.

    Même si une chaîne avait partiellement monétisé son contenu, le degré de monétisation n'était pas suffisant pour suggérer une opération commerciale, a-t-elle déclaré. « Nous nous attendrions à ce qu'un acteur purement commercial fasse davantage d'efforts pour monétiser pleinement ses opérations », a-t-elle indiqué. Certaines chaînes ont même reçu des commentaires de téléspectateurs affirmant que les voix de l'IA étaient « artificielles », mais peu de tentatives ont été faites pour améliorer la qualité du contenu afin de maximiser les revenus, a ajouté Keast.

    Le rapport révèle également qu'une partie du contenu de YouTube - un rapport selon lequel l'Iran aurait activé son système satellite BeiDou fourni par la Chine - est apparu sur X, anciennement Twitter, et d'autres plateformes de médias sociaux, où il a gagné du terrain en quelques heures.

    Il appelle à un plus grand partage d’informations sur les opérations d’influence chinoises entre les pays du groupe Five Eyes et leurs alliés, ainsi qu’à des règles plus strictes exigeant que les utilisateurs des médias sociaux divulguent l’utilisation de l’IA générative dans le contenu audio, vidéo ou image.

    Une campagne unique

    Ci-dessous un extrait du rapport.

    Cette campagne est unique à trois égards. Premièrement, comme indiqué ci-dessus, il existe un élargissement notable des sujets. Les précédentes campagnes liées à la Chine ont été étroitement ciblées et se sont souvent concentrées sur un ensemble restreint de sujets. Par exemple, l’accent mis par la campagne sur la promotion de récits établissant la Chine comme technologiquement supérieure aux États-Unis présente des arguments détaillés sur des sujets technologiques tels que les semi-conducteurs, les terres rares, les véhicules électriques et les projets d’infrastructure. En outre, il cible, par le biais de critiques et de désinformation, des entreprises technologiques américaines telles qu’Apple et Intel.

    Les médias d'État chinois, les responsables chinois et les influenceurs en ligne publient parfois sur ces sujets dans le but de « bien raconter l'histoire de la Chine » (讲好中国故事). Quelques opérations d'information inauthentiques soutenues par l'État chinois ont touché aux terres rares et aux semi-conducteurs, mais jamais en profondeur ni en combinant plusieurs récits dans un seul ensemble de campagne. L’ensemble plus large de sujets et d’opinions abordés dans cette campagne peut démontrer un plus grand alignement avec le comportement connu des acteurs malveillants liés à la Russie.

    Deuxièmement, il y a un changement dans les techniques et l’artisanat, car la campagne a tiré parti de l’IA. À notre connaissance, la campagne YouTube est l’une des premières fois où des essais vidéo, associés à des voix off génératives d’IA, sont utilisés comme tactique dans une opération d’influence. Les essais vidéo sont un style populaire de vidéo YouTube de longueur moyenne dans lequel un narrateur présente un argument via une voix off, tandis que le contenu pour étayer son argument est affiché à l'écran. Cela témoigne de la poursuite d’une tendance vers laquelle les acteurs malveillant s’orientent de plus en plus : utiliser des outils technologiques de montage vidéo et d’IA générative prêts à l’emploi pour produire à grande échelle un contenu convaincant et persuasif susceptible de constituer une audience sur les services de médias sociaux. Nous avons également observé un compte sur le réseau YouTube utilisant un avatar créé par Sogou, l’une des plus grandes entreprises technologiques chinoises (et filiale de Tencent) (voir page 24). Nous pensons que l’utilisation de l’avatar Sogou que nous avons identifié est le premier exemple d’être humain généré par l’IA par une entreprise chinoise utilisé dans une opération d’influence.

    Troisièmement, contrairement aux précédentes campagnes axées sur la Chine, celle-ci a attiré un grand nombre de vues et d'abonnés. Elle a également été monétisé, mais uniquement par des moyens limités. Par exemple, une chaîne a accepté de l’argent d’entreprises américaines et canadiennes pour soutenir la production de ses vidéos. Le nombre important de vues et d’abonnés suggère que la campagne est l’une des opérations d’influence liées à la Chine les plus réussies jamais vues sur les réseaux sociaux. De nombreuses opérations d’influence liées à la Chine, comme Dragonbridge (également connue sous le nom de « Spamouflage » dans la communauté des chercheurs), ont attiré un engagement initial dans certains cas, mais n’ont pas réussi à maintenir une audience significative sur les réseaux sociaux.

    Cependant, des recherches plus approfondies de la part de YouTube sont nécessaires pour déterminer si le nombre de vues et le nombre d’abonnés sur YouTube démontrent une audience réelle ou ont été artificiellement manipulés, ou une combinaison des deux. Nous notons que, lors de notre examen des commentaires YouTube sur les vidéos de cette campagne, nous avons constaté des signes d'une véritable audience. ASPI estime que cette campagne est probablement plus importante que les 30 chaînes couvertes dans ce rapport, mais nous avons limité notre examen initial aux chaînes que nous considérions comme étant au cœur de la campagne. Nous pensons également qu'il existe davantage de chaînes publiant du contenu dans des langues autres que l'anglais appartenant à ce réseau ; par exemple, nous avons vu des chaînes publiant en bahasa indonésien qui ne sont pas incluses dans ce rapport.

    Source : Rapport

    Et vous ?

    Qu'en pensez-vous ? Êtes-vous surpris de voir les évolutions de l'IA se traduire également par ce type d'utilisation ?
    Que pensez-vous de l’utilisation de l’IA par la Chine pour générer de la propagande sur YouTube ?
    Quels sont les risques et les opportunités que représentent les deepfakes pour l’information et la communication ?
    Comment vérifier la fiabilité et la crédibilité des contenus en ligne, face à la prolifération des deepfakes ?
    Quel est le rôle des utilisateurs, des médias et des autorités dans la prévention et la détection des deepfakes ?
    Quelles sont les mesures légales et éthiques à prendre pour encadrer l’utilisation de l’IA et des deepfakes ?

  17. #357
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 997
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 997
    Points : 208 098
    Points
    208 098
    Par défaut Deepfake : la Maison Blanche veut «vérifier cryptographiquement» les vidéos de Joe Biden
    La Maison Blanche veut «vérifier cryptographiquement» les vidéos de Joe Biden afin que les téléspectateurs ne les confondent pas avec des «deepfakes»,
    «Nous reconnaissons le risque de préjudice», a déclaré le conseiller en IA du président

    Face à l'augmentation des escroqueries de type deepfake et IA générative, la Maison Blanche déclare que des moyens de vérifier cryptographiquement ses communiqués officiels sont « en cours d'élaboration ». Aucun détail n'a encore été communiqué sur la forme que prendrait ce processus, mais il semble probable qu'il s'agirait d'une forme de « signature » des communiqués officiels qui prouverait que la Maison-Blanche en est la véritable source.

    Avec la prolifération d’outils d’IA générative conviviaux, tels que ChatGPT d’OpenAI, les deepfakes se multiplient. En janvier, un appel automatisé généré par IA a tenté de saper les efforts de vote liés à l’élection présidentielle de 2024 en utilisant la voix de Biden. Jeudi dernier, la Commission fédérale des communications (FCC) a déclaré que de tels appels sont illégaux.


    Les outils d’intelligence artificielle générative ont rendu beaucoup moins coûteuse et plus facile la diffusion du type de désinformation susceptible d’induire les électeurs en erreur et potentiellement d’influencer les élections. Et les sociétés de médias sociaux qui investissaient autrefois massivement dans la correction des faits ont changé leurs priorités.

    Les fausses voix, images et autres contenus manipulés en ligne ont déjà fait parler d'eux en cette année électorale marquée par la haute technologie. La FCC a interdit les robocalls générés par l'IA après qu'un appel destiné aux électeurs du New Hampshire a imité la voix du président Joe Biden, les exhortant à ne pas voter lors des élections primaires de l'État.

    Citation Envoyé par FCC
    La Commission fédérale des communications a annoncé aujourd'hui l'adoption à l'unanimité d'une décision déclaratoire reconnaissant que les appels effectués avec des voix générées par l'IA sont « artificiels » au sens de la loi sur la protection des consommateurs par téléphone (TCPA). Cette décision, qui prend effet immédiatement, rend illégale la technologie de clonage de la voix utilisée dans les escroqueries de type "robocall" qui ciblent les consommateurs. Les procureurs généraux des États du pays disposeront ainsi de nouveaux outils pour poursuivre les malfaiteurs à l'origine de ces appels téléphoniques frauduleux.
    « Les mauvais acteurs utilisent des voix générées par l'IA dans des appels téléphoniques non sollicités pour extorquer des membres vulnérables de la famille, imiter des célébrités et désinformer les électeurs. Nous mettons en garde les fraudeurs qui se cachent derrière ces robocalls », a déclaré Jessica Rosenworcel, présidente de la FCC. « Les procureurs généraux des États disposeront désormais de nouveaux outils pour réprimer ces escroqueries et veiller à ce que le public soit protégé contre la fraude et la désinformation ».

    L'augmentation de ce type d'appels s'est accélérée au cours des dernières années, car cette technologie permet désormais de confondre les consommateurs avec des informations erronées en imitant les voix de célébrités, de candidats politiques et de membres de la famille proche. Alors que les procureurs généraux des États peuvent actuellement cibler le résultat d'un appel vocal non désiré généré par l'IA, comme l'escroquerie ou la fraude qu'ils cherchent à perpétrer, cette mesure rend désormais illégal le fait d'utiliser l'IA pour générer la voix de ces appels téléphoniques, élargissant ainsi les voies légales par lesquelles les organismes chargés de l'application de la loi dans les États peuvent tenir ces auteurs pour responsables en vertu de la loi.


    La Maison Blanche s'inquiète des dommages que pourraient faire les deepfake en période électorale

    La Maison Blanche est de plus en plus consciente du besoin du public américain de distinguer les déclarations du président Joe Biden et les informations associées comme étant authentiques dans cette nouvelle ère d’intelligence artificielle générative facile à utiliser. Compte tenu de l'utilisation explosive de l'IA à l'heure actuelle et de la production d'un contenu de plus en plus convaincant, y compris de vidéos fluides et plausibles générées par l'IA, cette situation pourrait se transformer en un jeu de piste pour la Maison-Blanche.

    L'expert en IA de l'administration affirme que des mesures sont prises pour protéger les vidéos de Joe Biden afin d'éviter qu'elles ne soient transformées en "deepfakes" malveillants.

    Il est peu probable que l'interdiction de ces techniques suffise à empêcher les gens de les utiliser. Aussi, pour contrer cette menace grandissante, Ben Buchanan, conseiller spécial de Biden pour l’intelligence artificielle, a révélé que la Maison Blanche travaille sur un moyen de « vérifier cryptographiquement » toutes ses communications officielles. L’objectif ultime est de garantir que quiconque visionne une vidéo de Biden publiée par la Maison Blanche puisse immédiatement déterminer si elle est authentique et non altérée par un tiers. Cette initiative vise à renforcer la confiance du public dans les informations émanant de la Maison Blanche.

    Une méthode courante consiste à coupler une clé privée et une clé publique. La source d'une information génère une valeur de hachage pour une vidéo ou un document donné et la crypte à l'aide de sa clé privée. Ce hachage ne peut être décrypté qu'à l'aide de la clé publique, qui est accessible à tous et attribuée à l'auteur original. Ainsi, un décryptage réussi à l'aide de la clé publique confirme le propriétaire de la clé privée, ce qui permet de vérifier la source.

    Toute tentative de modification du fichier par un tiers ne contiendrait pas la valeur de hachage originale et ne permettrait donc pas de vérifier son authenticité.

    Bien que ces efforts soient certainement bénéfiques, il convient de prendre en compte certains risques potentiels. Une utilisation correcte aiderait sans aucun doute les gens à vérifier les communications réelles, mais ces pouvoirs donneraient au président et à son équipe un moyen de revendiquer la « vérité ».

    Si le président commet une erreur ou une gaffe lors de la diffusion d'une vidéo à la Maison-Blanche, il lui suffirait de ne pas signer cryptographiquement le contenu et de le désavouer comme étant faux. Compte tenu de l'état de division du paysage politique, il est probable que de tels pouvoirs pourraient être utilisés à des fins militaires.

    Pour l'instant, nous ne disposons pas d'un calendrier pour cette évolution.

    Bien que l’année dernière, un décret exécutif sur l’IA ait créé un Institut de sécurité de l’IA au Département du Commerce chargé d’établir des normes pour le marquage des contenus afin d’en montrer la provenance, l’effort visant à vérifier les communications de la Maison Blanche est distinct. Ben Buchanan a souligné que c’est un processus plus long, mais qu’il est en cours. La Maison Blanche s’efforce ainsi de devancer les risques potentiels et de protéger l’intégrité de ses communications officielles.

    Nom : vote.png
Affichages : 4903
Taille : 173,0 Ko

    Des réseaux sociaux déjà dépassés ?

    Récemment, l'agence hollywoodienne WME a annoncé ce qui semble être un projet similaire de filigrane, en partenariat avec la société technologique Vermillio. Le projet Trace ID permettrait de marquer les images et autres contenus d'un artiste afin de savoir s'ils sont utilisés sans autorisation - dans ce cas, l'objectif est de protéger la propriété intellectuelle et les revenus potentiels des acteurs. Dans les projets de la Maison Blanche, l'objectif est d'empêcher l'utilisation abusive du contenu de ses communications et peut-être même de retrouver les auteurs d'images ou de vidéos falsifiées du président ou d'autres membres de l'administration.

    En Europe, les autorités sont également sensibles au risque d'utilisation abusive du contenu de l'IA et s'efforcent de le combattre. Le plan consiste à utiliser la nouvelle loi sur les services numériques de l'Union européenne pour inciter un groupe de géants en ligne, tels que Meta, Google, TikTok et X, à identifier et à étiqueter les contenus créés par l'IA générative ainsi que les "deepfakes", afin qu'il soit clair qu'ils ne sont pas "réels". Les lignes directrices de l'UE mentionnent spécifiquement le filigrane comme outil de détection du matériel créé par l'IA et suggère que les plateformes technologiques « coopèrent avec les fournisseurs de systèmes d'IA générative » pour rendre les vidéos générées par l'IA faciles à identifier. Les utilisateurs des plateformes devraient également disposer d'outils faciles à utiliser pour pouvoir eux-mêmes repérer les images truquées.

    Cette nouvelle peut être particulièrement pertinente pour Meta, en raison des critiques que l'entreprise a essuyées de la part de son propre conseil de surveillance après que la récente vidéo virale impliquant le président Biden a été laissée à disposition sur ses serveurs. Meta avait conclu que la vidéo éditée n'était pas un deepfake, qui aurait été étroitement contrôlé, de sorte que ses propres politiques signifiaient que la vidéo pouvait rester à la disposition des utilisateurs. Le comité de surveillance a demandé à Meta de clarifier ses politiques "incohérentes" en matière de "deepfakes" et de contenus manipulés.


    Les deepfakes IA deviennent de plus en plus répandus

    « Je m'attends à un tsunami de désinformation », a déclaré Oren Etzioni, expert en intelligence artificielle et professeur émérite à l'Université de Washington. « Je ne peux pas le prouver. J'espère avoir tort. Mais les ingrédients sont là et je suis complètement terrifié ».

    Les images et vidéos manipulées entourant les élections ne sont pas nouvelles, mais 2024 sera la première élection présidentielle américaine au cours de laquelle des outils d'IA sophistiqués capables de produire des contrefaçons convaincantes en quelques secondes ne seront qu'à quelques clics.

    Les images, vidéos et clips audio fabriqués, connus sous le nom de deepfakes, ont commencé à se frayer un chemin dans les publicités expérimentales de la campagne présidentielle. Des versions plus sinistres pourraient facilement se propager sans étiquette sur les réseaux sociaux et tromper les gens quelques jours avant une élection, a déclaré Etzioni.

    « On pourrait voir un candidat politique comme le président Biden être transporté d’urgence à l’hôpital », a-t-il déclaré. « On pourrait voir un candidat dire des choses qu’il n’avait jamais dites. On pourrait assister à une ruée sur les banques. On pouvait voir des bombardements et des violences qui n’ont jamais eu lieu ».

    Les contrefaçons de haute technologie ont déjà affecté les élections dans le monde entier, a déclaré Larry Norden, directeur principal des élections et du programme gouvernemental au Brennan Center for Justice. Quelques jours seulement avant les récentes élections en Slovaquie, des enregistrements audio générés par l’IA ont usurpé l’identité d’un candidat libéral discutant de projets visant à augmenter les prix de la bière et à truquer les élections. Les vérificateurs de faits se sont efforcés de les identifier comme étant faux, mais ils ont malgré tout été partagés comme étant réels sur les réseaux sociaux.

    Ces outils pourraient également être utilisés pour cibler des communautés spécifiques et affiner les messages trompeurs sur le vote. Cela pourrait ressembler à des messages texte persuasifs, à de fausses annonces sur les processus de vote partagées dans différentes langues sur WhatsApp, ou à de faux sites Web simulés pour ressembler à ceux officiels du gouvernement de votre région, ont déclaré les experts.

    Face à un contenu conçu pour paraître réel, « tout ce que nous avons été programmés pour faire au cours de l'évolution va entrer en jeu pour nous faire croire à la fabrication plutôt qu'à la réalité réelle », a déclaré Kathleen Hall Jamieson, spécialiste de la désinformation et directeur du Annenberg Public Policy Center de l'Université de Pennsylvanie.

    Les Républicains et les Démocrates du Congrès et de la Commission électorale fédérale étudient des mesures pour réglementer la technologie, mais ils n’ont finalisé aucune règle ou législation. Cela laisse aux États le soin d’adopter les seules restrictions jusqu’à présent sur les deepfakes politiques de l’IA.

    Une poignée d’États ont adopté des lois exigeant que les deepfakes soient étiquetés ou interdisant ceux qui dénaturent les candidats. Certaines sociétés de médias sociaux, notamment YouTube et Meta, qui possèdent Facebook et Instagram, ont introduit des politiques d'étiquetage de l'IA. Reste à voir s’ils seront capables d’arrêter systématiquement les contrevenants.

    Source : Ben Buchanan, conseiller spécial de Biden pour l’intelligence artificielle

    Et vous ?

    Pensez-vous que la vérification cryptographique des vidéos est nécessaire pour prévenir la propagation des deepfakes ?
    Quels sont les avantages et les inconvénients d’une telle approche ?
    Comment pouvons-nous garantir que les algorithmes de vérification ne deviennent pas eux-mêmes vulnérables aux manipulations ?
    Quelles autres mesures pourraient être prises pour renforcer la confiance dans les informations officielles émanant de la Maison Blanche ?
    Croyez-vous que la technologie de vérification cryptographique pourrait être étendue à d’autres personnalités publiques ?

  18. #358
    Membre averti
    Homme Profil pro
    Développeur Web
    Inscrit en
    Avril 2021
    Messages
    285
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 43
    Localisation : Belgique

    Informations professionnelles :
    Activité : Développeur Web

    Informations forums :
    Inscription : Avril 2021
    Messages : 285
    Points : 447
    Points
    447
    Par défaut
    Ils auront beau signaler quelles vidéos sont des faux ou non, ça n'empêchera pas ces demeurés de républicains de croire toute fausse vidéo discréditant Joe Biden et d'écarter toute vraie vidéo discréditant Trump.

    Ce pays a hélas atteint un niveau où la logique et la réalité n'ont plus cours.

  19. #359
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 858
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 858
    Points : 18 797
    Points
    18 797
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    « On pourrait voir un candidat politique comme le président Biden être transporté d’urgence à l’hôpital », a-t-il déclaré. « On pourrait voir un candidat dire des choses qu’il n’avait jamais dites. On pourrait assister à une ruée sur les banques. On pouvait voir des bombardements et des violences qui n’ont jamais eu lieu ».
    Si une fausse vidéo (ou une vraie) montrait Joe Biden transporté à l'hôpital ça n'entrainerait aucune réaction.
    Tout le monde sait qu'il ne dirige pas réellement le pays.

    Les questions sur la santé de Joe Biden relancées par un procureur
    La décision de ne pas inculper Joe Biden pour détention illégale de documents classifiés aurait dû soulager Joe Biden. Au contraire, elle fait l'effet d'une bombe, en évoquant une mémoire qui présente "des limites importantes" chez le président de 81 ans.

    Dans un rapport, le procureur spécial Robert Hur en charge du dossier justifie sa décision de ne pas inculper le présidenten expliquant ne pas avoir réuni suffisamment d'éléments. Mais il pointe surtout la mémoire défaillante du président de 81 ans, qualifiée de « f__loue », « défectueuse », « pauvre », qui présente des « limites importantes ». Il y est noté que Biden ne se souvenait pas d’avoir défini des étapes importantes dans sa propre vie, comme la mort de son fils Beau ou la période où il était vice-président.
    (...)
    Mais les critiques républicaines n'ont pas tardé à s'accumuler jeudi lorsque le rapport du procureur spécial a été rendu public. Le représentant du Minnesota Tom Emmer, a déclaré sur X, anciennement Twitter, que le rapport était « alarmant » et qu'il est clair que Biden « n'a pas la capacité cognitive pour être président ».

    « Si vous êtes trop sénile pour subir un procès, alors vous êtes trop sénile pour être président. Joe Biden n'est pas apte à diriger cette nation », a déclaré Alex Pfeiffer, porte-parole de Make America Great Again, principale organisation soutenant la candidature de Donald Trump.
    Bon de toute façon la détention illégale de documents classifiés c'est un truc courant pour les présidents US.
    Mais ne pas être condamné à cause de sa santé mentale, c'est beaucoup moins courant pour un président US.

    ======
    J'aimerais bien voir un bank run (Panique bancaire), il n'y a pas besoin de Deepfake pour que ça se produise, il faut juste que les gens perdent confiance dans les banques.

  20. #360
    Membre expert
    Homme Profil pro
    Étudiant
    Inscrit en
    Novembre 2021
    Messages
    1 208
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Drôme (Rhône Alpes)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Novembre 2021
    Messages : 1 208
    Points : 3 289
    Points
    3 289
    Par défaut
    En fait c'est simple de détecter un deepfake de Joe Biden ; s'il ne fait pas d'erreur ou de confusion de son discours, c'est que c'est un deepfake .


Discussions similaires

  1. Réponses: 69
    Dernier message: 24/11/2023, 14h10
  2. Réponses: 4
    Dernier message: 15/07/2021, 15h42
  3. Réponses: 0
    Dernier message: 19/03/2021, 08h58
  4. Réponses: 2
    Dernier message: 30/07/2015, 01h48
  5. Réponses: 3
    Dernier message: 20/06/2012, 19h00

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo