Elon Musk a-t-il tort ? Des recherches suggèrent que les règles de contenu sur Twitter aident à préserver la liberté d'expression
des bots et autres manipulations
L'offre acceptée d'Elon Musk pour acheter Twitter a déclenché de nombreux débats sur ce que cela signifie pour l'avenir de la plateforme de médias sociaux, qui joue un rôle important dans la détermination des actualités et des informations auxquelles de nombreuses personnes – en particulier les Américains – sont exposées.
Musk a déclaré vouloir faire de Twitter une arène de liberté d'expression. On ne sait pas ce que cela signifiera, et ses déclarations ont alimenté les spéculations parmi les partisans et les détracteurs. En tant qu'entreprise, Twitter peut réglementer la parole sur sa plateforme à sa guise. Le Congrès américain et l'Union européenne envisagent des projets de loi concernant la réglementation des médias sociaux, mais ils concernent la transparence, la responsabilité, les contenus illégaux préjudiciables et la protection des droits des utilisateurs, plutôt que la réglementation de la parole.
Les appels de Musk à la liberté d'expression sur Twitter se concentrent sur deux allégations : les préjugés politiques et la modération excessive. Des chercheurs sur la désinformation et la manipulation en ligne, et un chercheur de l'Observatoire de l'Université de l'Indiana sur les médias sociaux ont étudié la dynamique et l'impact de Twitter et de ses abus. Pour donner un sens aux déclarations de Musk et aux résultats possibles de son acquisition, parcourons les analyses puis les résultats de leur recherche.
Parti pris politique
De nombreux politiciens et experts conservateurs ont affirmé pendant des années que les principales plateformes de médias sociaux, y compris Twitter, avaient un parti pris politique libéral équivalant à la censure des opinions conservatrices. Ces affirmations sont basées sur des preuves anecdotiques. Par exemple, de nombreux partisans dont les tweets ont été étiquetés comme trompeurs et déclassés, ou dont les comptes ont été suspendus pour violation des conditions d'utilisation de la plateforme, affirment que Twitter les a ciblés en raison de leurs opinions politiques.
Malheureusement, Twitter et d'autres plateformes appliquent souvent leurs politiques de manière incohérente, il est donc facile de trouver des exemples soutenant une théorie du complot ou une autre. Un examen du Center for Business and Human Rights de l'Université de New York intitulé "False Accusation : The Unfounded Claim that Social Media Companies Censor Conservatives" n'a trouvé aucune preuve fiable à l'appui de l'allégation de parti pris anti-conservateur par les entreprises de médias sociaux, qualifiant même l'allégation elle-même de forme de désinformation.
Une évaluation plus directe des préjugés politiques par Twitter est difficile en raison des interactions complexes entre les personnes et les algorithmes. Les gens, bien sûr, ont des préjugés politiques. Par exemple, les expériences des chercheurs avec des bots sociaux politiques ont révélé que les utilisateurs républicains sont plus susceptibles de confondre les bots conservateurs avec des humains, tandis que les utilisateurs démocrates sont plus susceptibles de confondre les utilisateurs humains conservateurs avec des bots.
Pour éliminer les préjugés humains de l'équation de leurs expériences, ils ont déployé un groupe de robots sociaux bénins sur Twitter. Chacun de ces bots a commencé par suivre une source d'information, certains bots suivant une source libérale et d'autres une source conservatrice. Après, tous les bots ont été laissés seuls pour « dériver » dans l'écosystème de l'information pendant quelques mois. Ils pourraient gagner des adeptes. Ils ont agi selon un comportement algorithmique identique. Cela comprenait le fait de suivre ou de suivre en retour (follow back) des comptes aléatoires, de tweeter du contenu dénué de sens et de retweeter ou de copier des messages aléatoires dans leur flux.
Mais ce comportement était politiquement neutre, sans aucune compréhension du contenu vu ou publié. Les chercheurs ont suivi les bots pour sonder les préjugés politiques émergeant du fonctionnement de Twitter ou de la façon dont les utilisateurs interagissent :
« Étonnamment, nos recherches ont fourni des preuves que Twitter a un parti pris conservateur plutôt que libéral. En moyenne, les comptes sont attirés vers le côté conservateur. Les comptes libéraux ont été exposés à un contenu modéré, ce qui a déplacé leur expérience vers le centre politique, tandis que les interactions des comptes de droite étaient biaisées vers la publication de contenu conservateur. Les comptes qui ont suivi des sources d'information conservatrices ont également reçu des adeptes plus politiquement alignés, s'intégrant dans des chambres d'écho plus denses et gagnant en influence au sein de ces communautés partisanes.
« Ces différences d'expériences et d'actions peuvent être attribuées aux interactions avec les utilisateurs et aux informations transmises par la plateforme de médias sociaux. Mais nous n'avons pas pu examiner directement le biais possible dans l'algorithme du fil d'actualités de Twitter, car le classement réel des publications dans la "chronologie d'accueil" n'est pas disponible pour les chercheurs extérieurs ».
Les chercheurs de Twitter ont cependant pu auditer les effets de leur algorithme de classement sur le contenu politique, révélant que la droite politique bénéficie d'une amplification plus élevée que la gauche politique. Leur expérience a montré que dans six des sept pays étudiés, les politiciens conservateurs bénéficient d'une plus grande amplification algorithmique que les libéraux. Ils ont également découvert que l'amplification algorithmique favorise les sources d'information de droite aux États-Unis.
« Nos recherches et les recherches de Twitter montrent que la préoccupation apparente de Musk concernant les préjugés sur Twitter contre les conservateurs est infondée ».
Arbitres ou censeurs ?
L'autre allégation que Musk semble faire est qu'une modération excessive étouffe la liberté d'expression sur Twitter. Le concept d'un marché libre des idées est enraciné dans le raisonnement séculaire de John Milton selon lequel la vérité prévaut dans un échange libre et ouvert d'idées. Ce point de vue est souvent cité comme base des arguments contre la modération : des informations précises, pertinentes et opportunes devraient émerger spontanément des interactions entre les utilisateurs.
Malheureusement, selon les chercheurs, plusieurs aspects des médias sociaux modernes entravent le libre marché des idées. Une attention limitée et un biais de confirmation augmentent la vulnérabilité à la désinformation. Ils estiment que le classement basé sur l'engagement peut amplifier le bruit et la manipulation, et la structure des réseaux d'information peut déformer les perceptions et être « manipulée » pour favoriser un groupe.
En conséquence, les chercheurs pensent que les utilisateurs des médias sociaux ont été ces dernières années victimes de manipulations par des causes « astroturf », de trolling et de désinformation. Les abus sont facilités par les robots sociaux et les réseaux coordonnés qui créent l'apparence de foules humaines. L'astroturfing, le similitantisme, la contrefaçon de mouvement d’opinion ou la désinformation populaire planifiée ou orchestrée désignent des techniques de propagande manuelles ou algorithmiques utilisées à des fins publicitaires ou politiques ou encore dans les campagnes de relations publiques, qui ont pour but de donner une fausse impression d'un comportement spontané ou d'une opinion populaire sur Internet. Elle consiste à donner l'impression d'un sentiment majoritaire pour justifier une prise de position.
« Nous et d'autres chercheurs avons observé ces récits inauthentiques amplifiant la désinformation, influençant les élections, commettant des fraudes financières, infiltrant les communautés vulnérables et perturbant la communication. Musk a tweeté qu'il voulait vaincre les spambots et authentifier les humains, mais ce ne sont pas des solutions faciles ni nécessairement efficaces. »
« Les comptes non authentiques sont utilisés à des fins malveillantes au-delà du spam et sont difficiles à détecter, en particulier lorsqu'ils sont exploités par des personnes en conjonction avec des algorithmes logiciels. Et la suppression de l'anonymat peut nuire aux groupes vulnérables. Ces dernières années, Twitter a adopté des politiques et des systèmes pour modérer les abus en suspendant de manière agressive les comptes et les réseaux affichant des comportements coordonnés inauthentiques. Un affaiblissement de ces politiques de modération pourrait rendre les abus endémiques à nouveau ».
Manipulations sur Twitter
Malgré les progrès récents de Twitter, l'intégrité reste un défi sur la plateforme. Les chercheurs ont découvert de nouveaux types de manipulations sophistiquées, qu'ils vont présenter à la conférence internationale AAAI sur le Web et les médias sociaux en juin. Des utilisateurs malveillants exploitent ce que l'on appelle des « trains de suivi » (des groupes de personnes qui se suivent sur Twitter) pour augmenter rapidement leurs abonnés et créer de grandes chambres d'écho hyperpartisanes denses qui amplifient le contenu toxique provenant de sources peu crédibles et complotistes.
Une autre technique malveillante efficace consiste à publier puis à supprimer stratégiquement le contenu qui enfreint les conditions de la plateforme une fois qu'il a atteint son objectif. Même la limite élevée de Twitter de 2 400 tweets par jour peut être contournée par des suppressions : les chercheurs ont identifié de nombreux comptes qui inondent le réseau de dizaines de milliers de tweets par jour.
Ils ont également trouvé des réseaux coordonnés qui se livrent à des "likes" et des "dislikes" répétitifs de contenu qui est finalement supprimé, ce qui peut manipuler des algorithmes de classement. Ces techniques permettent aux utilisateurs malveillants de gonfler la popularité du contenu tout en échappant à la détection.
Il est peu probable que les plans de Musk pour Twitter fassent quoi que ce soit à propos de ces comportements manipulateurs, selon les chercheurs.
Modération du contenu et liberté d'expression
L'acquisition probable de Twitter par Musk fait craindre que la plateforme de médias sociaux ne diminue la modération de son contenu. Ce corpus de recherches suggère qu'une modération plus forte, et non plus faible, de l'écosystème de l'information est nécessaire pour lutter contre la désinformation nuisible.
Cela suggère également que des politiques de modération plus faibles nuiraient ironiquement à la liberté d'expression : les voix des vrais utilisateurs seraient noyées par des utilisateurs malveillants qui manipulent Twitter via des comptes, des bots et des chambres d'écho non authentiques.
Sources : Des bots neutres sondent les préjugés politiques sur les réseaux sociaux, Center for Business and Human Rights at New York University, Amplification algorithmique de la politique sur Twitter (chercheurs de Twitter), La diffusion de contenus peu crédibles par les robots sociaux, Influence des humains augmentés dans les interactions en ligne lors des événements de vote, Identifier et analyser les manipulations de cryptomonnaie dans les médias sociaux, Les bots augmentent l'exposition au contenu négatif et incendiaire dans les systèmes sociaux en ligne, influence des robots sociaux dans les manifestations en ligne
Et vous ?
Que pensez-vous de ces recherches ? Vous semblent-elles crédibles ?
Partagez-vous les conclusions selon lesquelles des politiques de modération plus faibles nuiraient ironiquement à la liberté d'expression ?
Quel est votre avis sur la liberté d'expression ? Jusqu'à quel point devrait-elle être permise sur les réseaux sociaux ?
Partager