2 pièce(s) jointe(s)
IA et désinformation : « Nous sommes vraiment à l'orée de la fin de l'internet et personne n'en parle »
L'IA et la prolifération de la désinformation : « Nous sommes vraiment à l'orée de la fin de l'internet et personne n'en parle »,
les défis du déluge de contenus générés automatiquement
Des chercheurs ont mis en garde les escrocs et les propagandistes du monde entier contre le déploiement d'outils d'IA pour créer des sites de fausses nouvelles, amenant souvent les lecteurs et les téléspectateurs à les prendre pour une source d'information authentique. Les outils d'IA générative offrent des moyens nettement moins coûteux et plus rapides de fabriquer du contenu, une tendance préoccupante car les mandataires l'utilisent de plus en plus pour influencer les masses au cours d'une année d'élections aux enjeux considérables dans le monde entier.
L’intelligence artificielle a fait d’énormes progrès ces dernières années, et son influence sur l’internet est de plus en plus perceptible. Des algorithmes sophistiqués génèrent désormais des contenus tels que textes, images et vidéos, ce qui soulève des questions sur l’authenticité, la véracité et l’impact sur notre société.
L'argent de l'aide américaine qui sert à acheter une voiture de sport
L'une de ces fausses histoires produites par l'IA a indiqué qu'Olena Zelenska, la première dame d'Ukraine, aurait acheté une rare voiture de sport Bugatti Tourbillon pour 4,5 millions d'euros lors d'une visite à Paris pour les commémorations du jour J en juin. L'argent proviendrait de l'aide militaire américaine.
L'histoire est apparue il y a quelques semaines sur un site web français et a été rapidement démentie.
Des experts ont relevé d'étranges anomalies sur la facture mise en ligne. Un lanceur d'alerte cité dans l'article n'apparaissait que dans une vidéo bizarrement éditée qui pourrait avoir été créée artificiellement. Bugatti a publié un démenti cinglant, qualifiant l'information de "fake news", et son concessionnaire parisien a menacé d'intenter une action en justice contre les personnes à l'origine de cette fausse histoire.
Mais avant que la vérité ne puisse éclater, le mensonge est devenu viral. Les influenceurs avaient déjà repris la fausse histoire et l'avaient largement diffusée. Un utilisateur X, l'activiste pro-Russie et pro-Donald Trump Jackson Hinkle, a posté un lien vu par plus de 6,5 millions de personnes. Plusieurs autres comptes ont diffusé l'histoire à des millions d'autres utilisateurs X - au moins 12 millions au total, selon les mesures du site.
Le « psychiatre » fictif
Une autre de ces histoires produites par l'IA et publiées sur Global Village Space, un site numérique pakistanais, est devenue virale sur l'internet en affirmant que le psychiatre du Premier ministre israélien Benjamin Netanyahu s'était « suicidé ». L'article, paru en novembre, affirmait que le « psychiatre » avait rendu Netanyahou responsable de sa mort dans une lettre de suicide.
NewsGuard, un organisme de recherche basé aux États-Unis qui traque la désinformation, a révélé par la suite que l'article avait été inondé de contenu généré par l'intelligence artificielle, principalement à partir de sources en ligne grand public. Après avoir effectué des recherches, l'organisation a trouvé des similitudes significatives entre le faux article et un article fictif publié en 2010 sur un site web satirique.
« La croissance exponentielle des sources d'information générées par l'IA est alarmante car ces sites peuvent être perçus par l'utilisateur moyen comme des sources d'information légitimes et dignes de confiance », a déclaré McKenzie Sadeghi, analyste chez NewsGuard, cité par l'AFP.
Utilisé par les propagandistes
Le faux article sur le psychiatre de Netanyahou est devenu viral. Une chaîne de télévision iranienne l'a pris à bras-le-corps et a incité les téléspectateurs à lire l'article complet sur Global Village Space. L'article a également été traduit en plusieurs langues, dont l'arabe, le farsi et le français, puis amplifié par de nombreuses personnes sur les plateformes de médias sociaux.
Une poignée de sites ont même publié la nécrologie du « psychiatre » fictif.
Citation:
Envoyé par NewsGuard
Un site web d'information généré par l'intelligence artificielle semble être à l'origine d'une fausse affirmation selon laquelle le prétendu psychiatre du Premier ministre israélien Benjamin Netanyahu se serait suicidé, ce qui montre que les outils d'intelligence artificielle générative sont déjà apparemment utilisés par des acteurs malveillants pour diffuser des informations erronées.
La fausse affirmation semble avoir été lancée le 6 novembre sur un site web appelé Global Village Space, qui se présente comme un site d'information pakistanais. L'article, intitulé « Le psychiatre du Premier ministre israélien se suicide », affirmait que « le Dr Moshe Yatom, psychiatre israélien réputé pour ses travaux sur la guérison de maladies mentales graves, a été découvert mort à son domicile de Tel-Aviv ». L'article indique également que M. Yatom a laissé derrière lui une « lettre de suicide dévastatrice qui met en cause » M. Netanyahou. Cette affirmation s'est rapidement répandue sur plusieurs plateformes dans de nombreuses langues, y compris par des milliers d'utilisateurs de médias sociaux.
En réalité, une recherche effectuée par NewsGuard n'a permis d'identifier aucun psychiatre en Israël portant le nom de Moshe Yatom, ni aucune personne portant un nom similaire à celui qui aurait récemment trouvé la mort. Global Village Space semble avoir utilisé l'IA pour réécrire un article satirique sur Netanyahu, en capitalisant sur l'intérêt pour la guerre.
L'article de Global Village Space semble s'inspirer d'un article satirique publié le 8 juin 2010 sur Legalienate, un site qui se décrit comme un site d'actualités, de commentaires et de satire. Les articles présentent d'importantes similitudes et Global Village Space a l'habitude d'utiliser l'IA pour générer du contenu à partir d'autres sources. En août 2023, NewsGuard a découvert que GlobalVillageSpace.com était l'un des 37 sites utilisant également l'IA pour réécrire le contenu de sources d'information grand public, telles que le New York Times, sans en mentionner la source.
En mai 2023, NewsGuard a identifié pour la première fois Global Village Space comme un site web généré par l'IA. Il s'agit d'un exemple de site web déterminé par NewsGuard comme faisant partie des nombreux sites d'actualités non fiables générés par l'IA (UAINS), qui sont des sites qui publient principalement des actualités générées par l'IA, avec une supervision éditoriale humaine minimale et sans divulguer de manière transparente cette pratique à leurs lecteurs.
Pourquoi est-ce inquiétant ?
Les experts pensent que les escrocs pourraient utiliser l'IA pour diffuser des informations erronées au cours d'une année riche en élections à fort enjeu, comme aux États-Unis et en Inde.
« La désinformation générée automatiquement sera probablement un élément majeur des élections de 2024 », a déclaré Gary Marcus, professeur à l'université de New York, cité par l'AFP. « Les escrocs utilisent l'IA (générative) à gauche, à droite et au centre », a-t-il ajouté.
Selon NewsGuard, il existe au moins 739 sites d'information générés par l'IA qui fonctionnent avec peu ou pas de contrôle humain et qui portent des noms génériques tels que « Ireland Top News ».
Les analystes estiment que cela peut également nuire aux intérêts des annonceurs, car ils pourraient être considérés comme soutenant indirectement un contenu qui n'est pas basé sur des faits et des réalités sur le terrain.
La montée en puissance des contenus générés par l’IA
Images et vidéos
Les images et vidéos générées par l’IA sont de plus en plus difficiles à distinguer de celles créées par des humains. Des algorithmes de deep learning peuvent produire des visuels réalistes, des portraits aux paysages, en passant par des œuvres d’art. Cette avancée a des implications pour la photographie, le design graphique et même la sécurité, car les deepfakes deviennent plus convaincants.
Textes et articles
Les chatbots et les modèles de langage tels que GPT-3 et ChatGPT sont capables de rédiger des articles, des résumés et des commentaires. Cela peut être bénéfique pour l’automatisation de tâches, mais pose également des problèmes de désinformation. Les fermes de contenu en ligne utilisent ces modèles pour générer des articles à grande échelle, souvent sans vérification humaine.
Les défis posés par la prolifération de l’IA
Véracité et confiance
Comment pouvons-nous faire confiance à un contenu lorsque nous ne savons pas s’il a été créé par un humain ou par un algorithme ? La vérification devient un défi majeur. Les plateformes en ligne doivent mettre en place des mécanismes pour signaler les contenus générés par l’IA et garantir leur authenticité.
Surcharge d’information
Si l’IA continue de produire du contenu à un rythme effréné, l’internet risque de devenir saturé. Les utilisateurs seront submergés par des informations automatisées, ce qui pourrait nuire à la qualité de l’expérience en ligne. Comment maintenir un équilibre entre l’automatisation et la contribution humaine ?
Éthique et responsabilité
Les créateurs d’algorithmes doivent prendre en compte les implications éthiques de leurs créations. Comment éviter que l’IA ne soit utilisée pour diffuser de la désinformation, de la propagande ou des discours haineux ? La régulation et la transparence sont essentielles pour garantir que l’IA serve l’intérêt public.
1,5 milliard de fake news sont publiées chaque jour sur les médias sociaux, selon ID Crypt Global
ID Crypt Global a analysé les données du rapport Code of Practice on Disinformation de TrustLab pour comprendre la vitesse à laquelle la désinformation se propage sur les six principales plateformes de médias sociaux (Instagram, Facebook, X, LinkedIn, TikTok et YouTube) avant de mener sa propre analyse estimant le nombre de posts de désinformation créés chaque jour, et quelles plateformes sont les plus responsables de la propagation des fake news et des médias.
Le code de bonne pratique en matière de désinformation a été établi à la suite des conseils de la Commission européenne par les principales plateformes en ligne, les plateformes émergentes et spécialisées, les acteurs du secteur de la publicité, les vérificateurs de faits, la recherche et les organisations de la société civile, afin de fournir un code de bonne pratique renforcé en matière de désinformation.
Sur l'ensemble des plateformes, on estime que 5 % des utilisateurs sont des acteurs de la désinformation, ce qui signifie qu'il y a en tout 516 millions d'utilisateurs qui diffusent activement des fake news et des médias. On estime que chaque acteur de la désinformation crée en moyenne 3,9 messages par jour, ce qui signifie que, toutes plateformes confondues, 1,5 milliard de messages de désinformation sont créés ou partagés chaque jour.
Conclusion
L’IA transforme l’internet de manière profonde et irréversible. Face à sa montée en puissance dans les usages d'internet, un internaute a fait cette réflexion :
« Avec les progrès de l'IA, l'internet a été inondé de faux contenus, qu'il s'agisse de pages web sur l'IA ou de vidéos sur l'IA. Depuis leur apparition il y a quelques années, il est de plus en plus difficile de distinguer ce qui est de l'IA de ce qui est réel, et cela vaut pour tous les aspects de l'IA, qui ont tous progressé jusqu'à devenir indiscernables.
« Ainsi, des personnes ont déjà commencé à programmer des fermes de contenu en ligne qui publient des images d'IA avec des légendes d'IA. Facebook a déjà été entièrement envahi par ces comptes robots. Le pire, c'est que les gens programment maintenant des comptes qui publient de la propagande pour promouvoir un agenda en utilisant des modules d'IA de type ChatGPT qui peuvent interagir avec les gens.
« On en est déjà au point où il faut remettre en question chaque information en ligne. Que se passera-t-il une fois que l'internet sera tellement inondé que la majorité du contenu que vous verrez sera de l'IA ? Le marché en ligne deviendrait sursaturé, la musique, les images, les articles d'actualité, les discussions et bien d'autres choses encore seraient envahies. L'internet ne sera plus un endroit où les gens peuvent parler aux gens. L'IA sera trop nombreuse pour nous ».
Source : NewsGuard, tableau de données complet d'ID Crypt Global, fake news générée par IA de Global Village Space démentie par plusieurs médias mainstream comme le Japan Times ou le Washington Post
Et vous ?
:fleche: Comment pouvons-nous distinguer les contenus générés par l’IA de ceux créés par des humains ? Abordez les problèmes de vérification et d’authenticité, car il devient de plus en plus difficile de faire la distinction.
:fleche: Quelles mesures pouvons-nous prendre pour lutter contre la désinformation propagée par des algorithmes ? Les régulateurs, les entreprises et les utilisateurs ont un rôle à jouer dans la lutte contre la propagation de fausses informations, mais lequel selon vous ?
:fleche: Quelles sont les implications éthiques de la prolifération de l’IA sur l’internet ? L’automatisation croissante soulève des questions sur la responsabilité, la transparence et la confiance.
:fleche: Comment pouvons-nous préserver l’authenticité et la diversité des interactions en ligne malgré la montée en puissance de l’IA ? L’IA peut-elle coexister harmonieusement avec les humains dans les espaces numériques ?
La Russie s'appuie sur des outils avancés basés sur l'IA générative pour diffuser de la désinformation
La Russie s'appuie sur des Américains mal intentionnés et des outils avancés basés sur l'IA générative pour diffuser de la désinformation sur les élections
selon les services de renseignement américains
Les responsables des services de renseignement des États-Unis affirment que la Russie continue de représenter la plus grande menace en matière de désinformation électorale. Ils notent aussi que l'Iran semble intensifier ses efforts et que la Chine fait preuve de prudence en ce qui concerne l'échéance de 2024. Ces pays diffuseraient sur Internet des affirmations fausses et incendiaires sur la démocratie américaine afin de saper la confiance dans l'élection. La diffusion de la désinformation et de la propagande sur les prochaines élections américaines, ainsi qu'en France et dans d'autres pays européens, par ces trois États est facilitée par l'essor de l'IA générative.
La désinformation : un fléau complexe à combattre qui est exacerbé par l'essor de l'IA
Le gouvernement américain appelle à nouveau ses populations à faire attention et trier avec soin les contenus avec lesquels elles interagissent en ligne. « Le public américain doit savoir que le contenu qu'il lit en ligne - en particulier sur les médias sociaux - peut être de la propagande étrangère, même s'il semble provenir de compatriotes américains ou être originaire des États-Unis », a déclaré un responsable du bureau du directeur du renseignement national qui a informé les journalistes sous le couvert de l'anonymat, conformément aux règles établies par le bureau du directeur. Le message est en fait double cette fois-ci.
Dans un premier temps, le renseignement américain avertit que la Russie a intensifié ses efforts visant à diffuser à grande échelle de la désinformation et de la propagande sur les élections. Ce message n'est pas vraiment nouveau. Ce qui l'est par contre, c'est le second volet du message d'alerte qui indique que la machine de propagande russe s'appuie désormais également sur des Américains mal intentionnés afin de rendre les infox plus crédibles auprès du peuple américain.
Les groupes affiliés au Kremlin font de plus en plus appel à des sociétés de marketing et de communication situées en Russie afin de sous-traiter une partie du travail de création de propagande numérique tout en couvrant leurs traces. Deux de ces sociétés ont fait l'objet de nouvelles sanctions américaines annoncées en mars. Selon les autorités, ces deux sociétés russes ont créé de faux sites Web et de faux profils de médias sociaux pour diffuser la désinformation du Kremlin.
Cette désinformation peut porter sur les candidats ou le vote, ou sur des questions qui font déjà l'objet de débats aux États-Unis, comme l'immigration, la criminalité ou la guerre à Gaza. Mais l'objectif ultime serait d'amener les Américains à diffuser la désinformation russe sans s'interroger sur son origine. « Les gens sont beaucoup plus enclins à faire confiance et à rediffuser des informations qu'ils croient provenir d'une source nationale », ont déclaré les autorités américaines.
Les faux sites Web conçus pour imiter les organes de presse américains et les profils de médias sociaux générés par l'IA ne sont que deux méthodes parmi d'autres. Dans certains cas, des Américains, des entreprises et des médias américains ont volontairement amplifié et repris les messages du Kremlin. Après l'attaque contre Donald Trump, par exemple, les agences de désinformation russes ont rapidement amplifié les affirmations selon lesquelles la rhétorique démocrate avait conduit à la fusillade.
Elles auraient également propagé des théories suggérant que Joe Biden ou le gouvernement ukrainien avait orchestré l'attentat. « Ces voix prorusses ont cherché à lier la tentative d'assassinat à la guerre que la Russie continue de mener contre l'Ukraine », a conclu le laboratoire de recherche numérique du Conseil atlantique, qui suit la désinformation russe.
La Russie derrière une vaste campagne de désinformation ciblant la France et l'Europe
Selon les autorités américaines, alors que la Chine a organisé une vaste campagne de désinformation avant les récentes élections à Taïwan, elle s'est montrée beaucoup plus prudente lorsqu'il s'agit des États-Unis. Pékin pourrait utiliser la désinformation pour cibler les élections au Congrès ou d'autres élections où un candidat a exprimé des opinions fortes sur la Chine. Mais selon les autorités américaines, la Chine ne devrait pas essayer d'influencer la course à la présidence.
L'Iran, quant à lui, aurait adopté une attitude plus agressive. La directrice du renseignement national des États-Unis, Avril Haines, a déclaré au début du mois que le gouvernement iranien avait soutenu les manifestations américaines contre la guerre menée par Israël contre le Hamas à Gaza. « Des groupes liés à l'Iran se sont fait passer pour des activistes en ligne, ont encouragé des manifestations et ont apporté un soutien financier à certains groupes de protestation », a déclaré Haines.
Au début de l'année, la France a découvert une vaste campagne de désinformation russe en Europe, baptisée Portal Kombat. Selon l'organisme de surveillance Viginum, cette campagne vise la France, l'Allemagne, la Pologne, et d'autres pays européens. Le rapport que la campagne, dirigée depuis la Russie, est composée de 193 sites Web et diffuse des infox, notamment sur l'invasion de l'Ukraine par la Russie et les élections du Parlement européen. Les objectifs sont divers et variés.
Les autorités françaises ont déclaré que cette vaste campagne de désinformation menée par la Russie en Europe vise principalement à dénigrer l'Ukraine, justifier l'invasion russe, discréditer la résistance ukrainienne, et perturber les élections et événements sportifs sur le Vieux Continent. Les experts ont souligné la complexité de cet écosystème de désinformation, mettant en garde contre ses implications sur la démocratie et appelant à une protection urgente des élections à venir.
Selon la Commission européenne, l'OTAN, et les agences de l'ONU, la désinformation est devenue une menace majeure, reflétant ainsi les inquiétudes mondiales sur ce phénomène. Les États-Unis ont récemment annoncé qu'ils sont parvenus à interrompre une opération de désinformation financée par un État-nation et basée sur l'IA.
Le directeur du FBI, Christopher Wray, a déclaré : « la Russie avait l'intention d'utiliser cette ferme de robots pour diffuser de la désinformation étrangère générée par l'IA, en étendant leur travail avec l'aide de l'IA pour saper nos partenaires en Ukraine et influencer les récits géopolitiques favorables au gouvernement russe ».
L'IA et la désinformation en ligne font craindre la fin du Web tel qu'on le connaît
Au début du mois, les autorités américaines ont annoncé qu'une opération conjointe du FBI et des forces internationales de cybersécurité a permis de démanteler une ferme de bots secrète sur les réseaux sociaux, gérés par des groupes affiliés au gouvernement russe, qui utilisait l'IA générative pour diffuser de la désinformation auprès d'utilisateurs du monde entier. Le rapport indique que des affiliés de l'organe de presse Russia Today (RT), parrainé par l'État russe, ont utilisé Meliorator, un logiciel de génération et de gestion de fermes de bots utilisant l'IA, pour créer plus de 1 000 bots sur le réseau social X d'Elon Musk.
D'après le ministère américain de la Justice (DOJ), ces bots étaient destinés à diffuser de la désinformation dans et sur de nombreux pays, dont les États-Unis, la Pologne, l'Allemagne, les Pays-Bas, l'Espagne, l'Ukraine et Israël. Dans un communiqué de presse fournissant des détails sur l'opération de démantèlement, le DOJ a déclaré :
Citation:
Envoyé par Ministère américain de la Justice
Le ministère de la Justice a annoncé aujourd'hui la saisie de deux noms de domaine et la perquisition de 968 comptes de médias sociaux utilisés par des acteurs russes pour créer une ferme de robots basés sur l'IA sur les médias sociaux qui a diffusé de la désinformation aux États-Unis et à l'étranger.
La ferme de robots des médias sociaux utilisait des éléments de l'IA pour créer des profils de médias sociaux fictifs (souvent censés appartenir à des personnes aux États-Unis) que les opérateurs utilisaient ensuite pour promouvoir des messages soutenant les objectifs du gouvernement russe.
Meliorator est un logiciel de génération et de gestion de fermes de robots basé sur l'IA. Le logiciel a été conçu pour être utilisé sur les réseaux de médias sociaux afin de créer des personnages "authentiques" en masse, servant à la diffusion de la désinformation, ce qui pourrait aider la Russie à exacerber la discorde et à tenter de modifier l'opinion publique dans le cadre d'opérations d'information. Selon le rapport de l'enquête, en juin 2024, Meliorator ne fonctionnait que sur X.
Cependant, des analyses complémentaires suggèrent que la fonctionnalité Meliorator serait probablement étendue à d'autres plateformes de médias sociaux, notamment les réseaux sociaux de Meta. Pour assurer cette fonctionnalité, Meliorator comprend un panneau d'administration appelé "Brigadir" et un outil d'ensemencement appelé "Taras". Ces différentes découvertes démontrent que l'IA fait désormais clairement partie de l'arsenal de désinformation et de propagande en ligne.
Nina Jankowicz, directrice de l'American Sunlight Project, une organisation à but non lucratif qui tente de lutter contre la propagation de la désinformation, a déclaré qu'il n'était pas surprenant qu'une opération liée à la Russie s'appuie sur l'IA pour créer de faux comptes. « C'était l'une des parties les plus fastidieuses de leur travail ; aujourd'hui, elle a été rendue beaucoup plus facile par les technologies qui ont facilité cette opération », a déclaré Jankowicz.
Des chercheurs ont mis en garde contre le déploiement d'outils d'IA pour créer des sites d'infox, amenant souvent les lecteurs et les téléspectateurs à les prendre pour une source d'information authentique. Les outils d'IA offrent des moyens nettement moins coûteux et plus rapides de fabriquer du contenu, une tendance préoccupante, car les mandataires l'utilisent de plus en plus pour influencer les masses au cours d'une année d'élections aux enjeux considérables dans le monde entier.
Source : les responsables des services de renseignement américains
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Que pensez-vous de l'utilisation accrue de l'IA générative dans les campagnes de désinformation en ligne ?
:fleche: Quels sont les risques pour le Web ? Le Web tel qu'on le connaît est-il en train de disparaître ?
:fleche: Comment peut-on faire face à la désinformation en ligne ? Ou la désinformation est-elle devenue un problème insoluble ?
Voir aussi
:fleche: Cybercriminalité : la France découvre une vaste campagne de désinformation russe en Europe, 193 sites Web, dirigé depuis la Russie, diffusent de fausses nouvelles
:fleche: La guerre de l'information à l'ère de l'IA : le FBI annonce la perquisition de 968 comptes automatisés sur X en provenance de Russie, qui diffusaient de la propagande aux États-Unis et dans d'autres pays
:fleche: Microsoft veut que le Congrès interdise les fraudes par deepfake générées par l'IA, avec une "loi sur la fraude par deepfake" qui donnera aux autorités un cadre juridique pour poursuivre les fraudes par l'IA
1 pièce(s) jointe(s)
Un réseau contrôlé par la Russie a versé des millions à un média américain pour des vidéos pro-russe
Un réseau d'information contrôlé par le gouvernement russe a versé des millions à un média américain qui payait des influenceurs de droite pour des vidéos favorables au Kremlin, d'après les USA
Aux États-Unis, un réseau d'information contrôlé par le gouvernement russe de Vladimir Poutine vient d'être découvert. À l'aide d'un média américain, des influenceurs de droite ont été dupés pour travailler dans le cadre d'une opération d'influence russe secrète. L'opération d'influence pro-russe montre que la Russie a une préférence pour Donald Trump pour les prochaines élections.
En début d'année, la France a découvert une vaste campagne de désinformation russe en Europe, baptisée Portal Kombat. Selon l'organisme de surveillance Viginum, cette campagne vise la France, l'Allemagne, la Pologne, et d'autres pays européens. Le réseau de 193 sites web, dirigé depuis la Russie, diffusait des fausses nouvelles, pour dénigrer l'Ukraine, justifier l'invasion russe, discréditer la résistance ukrainienne, et perturber les élections et événements sportifs en Europe.
Aux États-Unis, un réseau d'information contrôlé par le gouvernement russe de Vladimir Poutine vient d'être découvert. Une société de médias liée à six influenceurs conservateurs aurait servi de couverture à une opération d'influence russe. Ils ont des millions d'adeptes en ligne. Ils ont été des acteurs majeurs du discours politique de droite depuis que Donald Trump est président. Et ils ont travaillé à leur insu pour une société qui servait de couverture à une opération d'influence russe, affirment les procureurs américains.
Selon un acte d'accusation déposé le 4 septembre, une société de médias liée à six influenceurs conservateurs - dont les personnalités Tim Pool, Dave Rubin et Benny Johnson - était secrètement financée par des employés des médias d'État russes pour produire des vidéos en anglais qui étaient "souvent conformes" à l'intérêt du Kremlin "d'amplifier les divisions intérieures des États-Unis afin d'affaiblir l'opposition des États-Unis" aux intérêts russes, comme sa guerre en Ukraine.
Outre le fait qu'il s'agit de la troisième élection présidentielle consécutive au cours de laquelle les autorités américaines ont dévoilé des détails à connotation politique sur les tentatives d'ingérence de la Russie dans la politique américaine, un acte d'accusation indique comment Moscou pourrait tenter de tirer parti de la popularité croissante des podcasters de droite, des livestreamers et d'autres créateurs de contenu qui ont réussi à faire carrière sur les médias sociaux depuis l'arrivée au pouvoir de M. Trump.
Le ministère américain de la justice n'allègue aucun acte répréhensible de la part des influenceurs, dont certains auraient reçu de fausses informations sur la source de financement de l'entreprise. En revanche, il accuse deux employés de RT, un média d'État russe, d'avoir versé près de 10 millions de dollars à une société de création de contenu basée dans le Tennessee pour des contenus favorables à la Russie.
Après l'annonce des inculpations, M. Pool et M. Johnson ont tous deux publié des déclarations sur les réseaux sociaux, que M. Rubin a retweetées, affirmant qu'ils étaient victimes des crimes présumés et qu'ils n'avaient rien fait de mal. "Nous ne savons toujours pas ce qui est vrai, car il ne s'agit que d'allégations", a déclaré M. Pool. Dans son billet, M. Johnson a écrit qu'on lui avait demandé il y a un an de fournir du contenu à une "startup médiatique". Il a déclaré que ses avocats avaient négocié un "contrat standard, sans lien de dépendance, qui a été résilié par la suite".
Kostiantyn Kalashnikov et Elena Afanasyeva sont accusés de conspiration en vue de commettre un blanchiment d'argent et de violation de la loi sur l'enregistrement des agents étrangers.
L'opération d'influence pro-russe montre que la Russie a une préférence pour Donald Trump
Les autorités américaines ont déjà mis en garde contre l'utilisation par la Russie d'Américains à leur insu pour mener des opérations d'influence sur les élections de 2024, mais l'acte d'accusation récente est la description la plus détaillée de ces efforts à ce jour. Les services de renseignement ont déclaré que Moscou avait une préférence pour M. Trump.
Le président russe Vladimir Poutine a autorisé des opérations d'influence pour aider M. Trump lors de l'élection de 2020, tandis que sa campagne de 2016 a bénéficié du piratage d'agents des services de renseignement russes et d'une action secrète sur les médias sociaux, selon des responsables américains des services de police et de renseignement.
Avec le déclin des médias traditionnels comme les journaux et les limites imposées à la publicité directe sur les plateformes de médias sociaux, les influenceurs jouent de plus en plus un rôle clé dans la politique et la formation de l'opinion publique. Les partis républicain et démocrate ont tous deux invité des dizaines d'influenceurs à leurs conventions nationales respectives cet été. Cependant, comme il n'existe que peu ou pas d'obligations de divulgation concernant le financement du travail des influenceurs, le public est largement dans l'ignorance de qui alimente les messages en ligne.
Bien que l'acte d'accusation ne nomme pas la société basée dans le Tennessee, les détails correspondent exactement à Tenet Media, une société de médias en ligne qui se vante d'héberger "un réseau de commentateurs hétérodoxes qui se concentrent sur les questions politiques et culturelles occidentales". Le site web de Tenet Media répertorie six influenceurs qui fournissent du contenu, dont Pool, Johnson, Rubin, Lauren Southern, Tayler Hansen et Matt Christiansen. Les six principaux influenceurs de Tenet Media comptent plus de 7 millions d'abonnés sur YouTube et plus de 7 millions de followers sur X.
Alimentés par l'indignation publique et la ferveur en ligne, les influenceurs qui composent le groupe de talents de Tenet Media ont accumulé des millions de fidèles qui approuvent leur conservatisme farouche et leur volonté effrontée d'exprimer des opinions controversées. Leurs chaînes ont également créé des communautés pour les Américains conservateurs qui ont perdu confiance dans les médias traditionnels à la suite de la défaite de Trump en 2020 et de la pandémie de COVID-19. Plusieurs d'entre eux ont été critiqués pour avoir diffusé des informations politiques erronées.
L'acte d'accusation montre que certains des influenceurs ont été grassement payés pour leur travail. Le contrat d'un influenceur non identifié prévoyait une rémunération mensuelle de 400 000 dollars, une prime à la signature de 100 000 dollars et une prime de performance supplémentaire.
Ces derniers mois, les émissions de Tenet Media ont accueilli des invités conservateurs de premier plan, notamment Lara Trump, coprésidente du Comité national républicain, Vivek Ramaswamy, ancien candidat républicain à la présidence, et Kari Lake, candidate au Sénat des États-Unis. Les quelque 2 000 vidéos publiées par la société ont été visionnées plus de 16 millions de fois rien que sur YouTube, selon les procureurs.
M. Pool, journaliste devenu YouTuber, qui a attiré l'attention du public en diffusant en direct les manifestations d'Occupy Wall Street, a accueilli M. Trump sur son podcast au début de l'année. M. Johnson est un partisan déclaré de M. Trump et une personnalité de l'internet qui a été licencié de BuzzFeed après que l'entreprise a découvert des preuves qu'il avait plagié d'autres travaux. M. Rubin faisait auparavant partie de l'émission libérale de commentaire de l'actualité "The Young Turks", mais il s'est depuis identifié comme libertarien. Il compte le plus grand nombre d'abonnés sur YouTube parmi les influenceurs de Tenet et anime une émission intitulée "The Rubin Report".
Liam Donovan, président de Tenet Media, est le mari de Lauren Chen, une influenceuse canadienne qui est apparue comme invitée dans plusieurs vidéos de Tenet Media. Lauren Chen est affiliée à l'organisation de jeunesse conservatrice Turning Point USA et a animé des émissions pour le réseau de droite Blaze Media. Le site web de RT la mentionne également comme contributrice de plusieurs articles d'opinion en 2021 et 2022.
Source : Acte d'accusation
Et vous ?
:fleche: Pensez-vous que ces accusations sont crédibles ou pertinentes ?
:fleche: Quel est votre avis sur le sujet ?
Voir aussi :
:fleche: La guerre de l'information à l'ère de l'IA : le FBI annonce la perquisition de 968 comptes automatisés sur X en provenance de Russie, qui diffusaient de la propagande aux États-Unis et dans d'autres pays
:fleche: La Russie aurait utilisé tous les principaux outils de médias sociaux pour favoriser l'élection de Donald Trump, selon un rapport
:fleche: La Russie s'appuie sur des Américains mal intentionnés et des outils avancés basés sur l'IA générative pour diffuser de la désinformation sur les élections, selon les services de renseignement américains
Meta a banni RT, Rossiya Segodnya et d'autres médias d'État russes de ses plateformes
Meta, propriétaire de Facebook, a banni RT, Rossiya Segodnya et d'autres médias d'État russes de ses plateformes, affirmant qu'ils usent de tromperies pour mener des opérations d'influence secrètes en ligne
Meta, propriétaire de Facebook, a déclaré le lundi 16 septembre qu'il bannissait RT, Rossiya Segodnya et d'autres réseaux de médias d'État russes de ses plateformes, affirmant que les médias avaient utilisé des tactiques trompeuses pour mener des opérations d'influence secrètes en ligne.
Un réseau d'information contrôlé par le gouvernement russe de Vladimir Poutine a récemment été découvert aux États-Unis. À l'aide d'une société de médias américain, des influenceurs de droite ont été dupés pour travailler dans le cadre d'une opération d'influence russe. Le réseau d'information compte des millions d'adeptes en ligne, qui ont été des acteurs majeurs du discours politique de droite depuis la présidence de Donald Trump. L'opération d'influence pro-russe montre que la Russie a une préférence pour Donald Trump pour les prochaines élections.
L'interdiction des médias d'État russes sur les plateformes de Meta, vivement critiquée par le Kremlin, marque une forte escalade des mesures prises par la plus grande entreprise de médias sociaux au monde à l'encontre des médias d'État russes, après des années de mesures plus limitées telles que l'interdiction pour les médias de diffuser des publicités et la réduction de la portée de leurs messages.
« Après mûre réflexion, nous avons élargi notre action contre les médias d'État russes. Rossiya Segodnya, RT et d'autres entités apparentées sont désormais bannies de nos applications dans le monde entier en raison de leurs activités d'ingérence étrangère », a déclaré l'entreprise de médias sociaux dans un communiqué écrit.
La mise en œuvre de l'interdiction se fera dans les prochains jours. Outre Facebook, les applications de Meta comprennent Instagram, WhatsApp et Threads.
Le porte-parole du Kremlin, Dmitry Peskov, a déclaré aux journalistes le mardi 17 septembre : « Meta se discrédite avec ces actions. De telles actions sélectives contre les médias russes sont inacceptables [...]. Cela complique les perspectives de normalisation de nos relations avec Meta ».
Moscou a qualifié Meta d'organisation « extrémiste » en 2022 et a bloqué Instagram et Facebook, s'opposant aux changements apportés à la politique d'incitation à la haine de Meta, conçue pour permettre aux utilisateurs d'exprimer leur colère face à l'invasion de l'Ukraine par la Russie.
Et vous ?
:fleche: Quel est votre avis sur le sujet ?
:fleche: Trouvez-vous cette mesure de Meta justifiée et pertinente ?
Voir aussi :
:fleche: Un réseau d'information contrôlé par le gouvernement russe a versé des millions à un média américain qui payait des influenceurs de droite pour des vidéos favorables au Kremlin, d'après les USA
:fleche: La Russie s'appuie sur des Américains mal intentionnés et des outils avancés basés sur l'IA générative pour diffuser de la désinformation sur les élections, selon les services de renseignement américains