IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Dirigeant
    Inscrit en
    Juin 2016
    Messages
    3 160
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Bénin

    Informations professionnelles :
    Activité : Dirigeant
    Secteur : Aéronautique - Marine - Espace - Armement

    Informations forums :
    Inscription : Juin 2016
    Messages : 3 160
    Points : 66 310
    Points
    66 310
    Par défaut L'algorithme de YouTube recommande des vidéos qui violent les politiques de la plateforme
    L'algorithme de YouTube recommande des vidéos qui violent les politiques de la plateforme
    selon une étude de Mozilla

    Les algorithmes de recommandation des plateformes de médias sociaux sont souvent critiqués pour leur tendance à rendre les internautes très dépendants, à nuire à leur santé mentale, et pour beaucoup d'autres problèmes. Une nouvelle étude portant sur l'algorithme de recommandation de YouTube, en particulier l'IA qui l'alimente, a révélé que cette dernière recommande des vidéos contenant des informations erronées, des contenus violents, des discours de haine et des escroqueries. La recherche révèle également que les personnes vivant dans des pays non anglophones sont beaucoup plus susceptibles de tomber sur des vidéos dérangeantes.

    L'algorithme de recommandation de YouTube serait nuisible aux internautes

    L'algorithme (l'IA) de recommandation de vidéos de YouTube est généralement accusé d'alimenter un ensemble de maux de la société en montrant aux utilisateurs des discours haineux, d'extrémisme politique et/ou de conspiration/désinformation, dans le but lucratif d'essayer de garder des milliards d'yeux rivés sur son inventaire publicitaire. Un nouveau rapport publié aujourd'hui par Mozilla confirme cette idée, alléguant que l'IA de YouTube continue de gonfler des piles de contenus "de bas étage"/de qualité inférieure/divisifs/désinformants. Ces contenus tenteraient d'attirer les regards en déclenchant le sentiment d'indignation des gens.

    Nom : 1_QRu3ZSpGfrIVawIimsb4ZA.jpeg
Affichages : 1387
Taille : 110,1 Ko

    Mozilla a mené cette recherche en utilisant RegretsReporter, une extension open source de navigateur qui a converti des milliers d'utilisateurs de YouTube en chiens de garde de YouTube. Dix mois après le lancement de RegretsReporter, 37 380 volontaires ont téléchargé l'extension. Ensemble, ils ont partagé des "regrets" concernant 3 362 vidéos. Les utilisateurs ont volontairement donné leurs données, ce qui a permis aux chercheurs d'avoir accès à un ensemble de données de recommandation de YouTube, strictement confidentielles. Il s'agit de la plus grande enquête jamais réalisée sur l'algorithme de YouTube.

    Qu'est-ce que Mozilla entend exactement par "regret" de YouTube ? La société précise qu'il s'agit d'un concept issu de la foule, basé sur les utilisateurs qui signalent eux-mêmes leurs mauvaises expériences sur YouTube, il s'agit donc d'une mesure subjective. Mais Mozilla affirme que cette approche "humaine" est centrée sur les expériences vécues des internautes et permet donc de mettre en avant les expériences des personnes et des communautés marginalisées et/ou vulnérables (par opposition, par exemple, à l'application d'une définition juridique plus étroite du "préjudice").

    Une équipe de 41 assistants de recherche a ensuite examiné les vidéos signalées par les utilisateurs pour tenter d'établir des liens entre le contenu préjudiciable et les modèles de recommandation. Ils ont constaté qu'une proportion écrasante (71 %) de regrets provenait de vidéos recommandées par l'algorithme. Qui plus est, les vidéos recommandées étaient 40 % plus susceptibles d'être signalées que les vidéos qui avaient été recherchées. Selon le rapport de l'étude, dans près de la moitié des cas, le contenu que l'algorithme recommandait semblait n'avoir aucun rapport avec les visionnages précédents.

    À titre d'exemple, un volontaire a déclaré avoir été encouragé à regarder des chaînes d'extrême droite après avoir consulté des vidéos de survie en pleine nature. En outre, l'algorithme a parfois recommandé des messages qui violent les politiques de YouTube. Voici les principales conclusions de l'étude :

    • les volontaires de l'enquête ont rencontré toute une série de vidéos regrettables, allant de l'apologie du Covid-19 à la désinformation politique en passant par des dessins animés pour enfants tout à fait inappropriés ;
    • les pays non anglophones sont les plus touchés, le taux de vidéos "regrettables" étant 60 % plus élevé dans les pays où l'anglais n'est pas la langue principale ;
    • 71 % des vidéos jugées regrettables par les bénévoles ont été activement recommandées par l'algorithme de YouTube ;
    • près de 200 vidéos recommandées par l'algorithme de YouTube aux bénévoles ont été retirées de YouTube, dont plusieurs ont été jugées contraires à la politique de l'entreprise. Ces vidéos avaient été vues environ 160 millions de fois avant d'être supprimées ;
    • les vidéos recommandées étaient 40 % fois plus susceptibles d'être regrettées que les vidéos recherchées ;
    • dans 43,6 % des cas où Mozilla disposait de données sur les vidéos qu'un volontaire avait regardées avant un regret, la recommandation n'avait aucun rapport avec les vidéos précédentes que le volontaire avait regardées ;
    • les regrets sur YouTube ont tendance à être extrêmement performants sur la plateforme, les vidéos signalées acquérant 70 % de vues supplémentaires par jour par rapport aux autres vidéos regardées par les volontaires ;
    • l'algorithme de YouTube ne traite pas les gens de la même manière ;
    • les reportages liés aux pandémies sont particulièrement prolifiques dans les langues non anglaises. Parmi les regrets en langue anglaise, 14 % sont liés à une pandémie.


    YouTube garde secrètes les informations sur son algorithme de recommandation

    Les participants à l'enquête de Mozilla ont également signalé un grand nombre de ce que YouTube "pourrait" considérer comme du "contenu limite". Autrement dit, des contenus plus difficiles à catégoriser, des vidéos de mauvaise qualité qui se situent peut-être à la limite de l'acceptable. Elles sont donc plus difficiles à traiter par les systèmes de modération algorithmique de la plateforme (et donc des contenus qui peuvent aussi survivre plus longtemps au risque de suppression). Toutefois, le rapport signale un problème connexe : YouTube ne fournit pas de définition du contenu limite même si ses directives le mentionnent.

    Selon Mozilla, cela rend impossible la vérification de l'hypothèse des chercheurs selon laquelle une grande partie des contenus que les volontaires ont signalés comme étant "regrettables" entrerait probablement dans la catégorie "contenu limite" de YouTube. En 2019, Mozilla avait demandé à YouTube des détails sur le fonctionnement de l'algorithme de recommandation de la plateforme. Mais en demandant à la plateforme de médias sociaux de révéler les détails du modèle, l'organisation avait rencontré une ferme résistance. Et malgré une demande répétée, les chercheurs de Mozilla n'ont toujours pas pu accéder aux rouages de la technologie.

    Cela a alors conduit au projet RegretsReport. « YouTube nous indique le nombre de vues d'une vidéo, mais pas le nombre de fois qu'ils ont recommandé cette vidéo ». « Il est donc très difficile de comprendre le rôle que joue l'algorithme dans les mauvaises expériences que vivent les gens. C'est absolument là que nous devrions mettre l'accent et nous inquiéter. Il ne s'agit pas seulement de savoir combien de contenus nuisibles il y a sur la plateforme, mais aussi d'assumer la responsabilité du rôle que leurs outils pourraient jouer dans leur amplification », a déclaré Brandi Geurkink, responsable senior de la défense des intérêts de Mozilla.

    En outre, les chercheurs de Mozilla reconnaissent que RegretsReporter a ses limites. Il n'y a en effet aucun moyen d'empêcher les utilisateurs de rechercher activement des vidéos nuisibles pour fausser les données, par exemple, et il n'est pas non plus possible de prétendre qu'un pool de quelques dizaines de milliers de spectateurs est représentatif de l'ensemble de la base d'utilisateurs de la plateforme. « Nous essayons de faire comprendre très clairement que des outils comme celui-ci ne remplacent pas la transparence de YouTube », a expliqué Geurkink.

    « Ce que nous faisons, c'est exposer certaines tendances que nous observons et qui, selon nous, ne sont que la partie émergée de l'iceberg. Cependant, être capable de vraiment comprendre comment ces expériences pourraient se produire à l'échelle de YouTube nécessiterait une transparence de la part de YouTube, ce qui, selon nous, doit se produire », a-t-elle ajouté. Selon Geurkink, les failles de la méthodologie ne font que souligner la profondeur du problème : en l'absence d'une transparence appropriée de la part de la plateforme, les chercheurs doivent recourir à des méthodes alternatives moins fiables pour tenter de faire la lumière sur la cause profonde du problème.

    Mozilla : il faut obliger Google à corriger l'IA de recommandation de YouTube

    Selon les experts, le fait que l'intelligence artificielle de YouTube se comporte toujours aussi mal (selon l'étude de Mozilla) suggère que Google a bien réussi à brouiller les critiques avec des revendications de réforme superficielles. Ils estiment que la clé de voûte de ce succès est probablement le mécanisme de protection primaire qui consiste à dissimuler les mécanismes algorithmiques du moteur de recommandation (et les données associées) à la vue du public et à la surveillance externe, via le bouclier pratique du "secret commercial". Mais ils pensent que les choses pourraient changer à l'avenir.

    Ils estiment que des réglementations qui pourraient aider à ouvrir les boîtes noires de l'IA propriétaire de YouTube sont à l'examen en Europe et aux États-Unis. Pour réparer l'algorithme de YouTube, Mozilla appelle à des "lois de transparence de bon sens, à une meilleure surveillance et à la pression des consommateurs". En effet, les responsables de l'étude ont expliqué dans leur rapport qu'une combinaison de lois qui rendent obligatoire la transparence des systèmes d'IA, qui protègent les chercheurs indépendants est ce qu'il faut pour contenir les pires excès de l'IA de YouTube.

    Selon Mozilla, ces lois permettront aux chercheurs indépendants de s'interroger sur les impacts de l'IA de recommandation de YouTube et donneront aux utilisateurs de la plateforme des contrôles robustes (comme la possibilité de refuser les recommandations "personnalisées"). Pour sa part, YouTube a reconnu que l'algorithme de la plateforme avait besoin d'être corrigé. La société a promis d'apporter des modifications et a récemment lancé plus de 30 changements de politique différents pour réduire les recommandations de vidéos limites, qui, selon elle, ont provoqué une baisse moyenne de 70 % du temps de visionnage pour ce type de contenu.

    Un porte-parole de YouTube a déclaré : « Plus de 80 milliards d'informations sont utilisées pour aider à informer nos systèmes, y compris les réponses aux enquêtes des spectateurs sur ce qu'ils veulent regarder ». « Nous travaillons constamment à améliorer l'expérience sur YouTube et, rien qu'au cours de l'année dernière, nous avons lancé plus de 30 changements différents afin de réduire les recommandations de contenus nuisibles. Grâce à ce changement, la consommation de contenu limite qui provient de nos recommandations est désormais nettement inférieure à 1 % », a-t-il ajouté.

    Selon la plateforme, les enquêtes auprès des utilisateurs montrent qu'en général, les spectateurs sont satisfaits des recommandations de YouTube. Elle a déclaré que pour 10*000 vues sur YouTube, 16 à 18 en moyenne proviennent de contenus qui violent les directives de la communauté et revient à des investissements plus importants dans l'apprentissage automatique. Pour Geurkink cependant, ce n'est pas suffisant. « Nous les avons poussés à permettre réellement une vérification indépendante de ces affirmations. Je ne pense pas que nous devions simplement prendre leurs affirmations pour argent comptant. », a-t-elle déclaré.

    « Nous faisons pression pour un audit de l'algorithme, pour une vérification indépendante de ces chiffres, et ils n'ont pris aucune mesure dans ce sens », a-t-elle ajouté. Mais le vent pourrait tourner. Au cours d'une audition de la commission sénatoriale américaine au début de l'année, le sénateur Chris Coons a longuement interrogé YouTube sur le fonctionnement nébuleux de l'algorithme de recommandation de la plateforme. Auparavant, au Royaume-Uni, la députée Yvette Cooper a également fait spécifiquement référence à YouTube lorsqu'elle a soulevé la question devant le Parlement.

    Source : Mozilla

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi

    Les algorithmes de YouTube auraient favorisé la prolifération de chaînes déformant les reportages de CNN, selon CNN Business

    YouTube se lance à l'assaut de la désinformation et veut promouvoir l'innovation sur sa plateforme dans le cadre de la Google News Initiative

    YouTube marque comme fake news les flux en direct de l'incendie qui a ravagé la cathédrale Notre-Dame et propose des informations sur le 11 septembre

    Susan Wojcicki, PDG de YouTube, explique pourquoi elle laisse des vidéos « controverses ou même offensantes » sur la plateforme

  2. #2
    Invité
    Invité(e)
    Par défaut
    YouTube me passe régulièrement des "pubs" complotistes anti-5G, ou vantant quelque pseudo-médecine dénuée de tout fondement scientifique.

  3. #3
    Invité
    Invité(e)
    Par défaut
    Que propose Mozilla comme algo alternative ? N'avoir dans les recommandations, que des vidéos de squeezie et arté ?

  4. #4
    Membre expérimenté
    Homme Profil pro
    bricoleur par les mots
    Inscrit en
    Avril 2015
    Messages
    732
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 79
    Localisation : France, Seine Maritime (Haute Normandie)

    Informations professionnelles :
    Activité : bricoleur par les mots
    Secteur : Distribution

    Informations forums :
    Inscription : Avril 2015
    Messages : 732
    Points : 1 643
    Points
    1 643
    Par défaut
    Quel est votre avis sur le sujet
    J'ai l'impression que l’algorithme se base principalement sur l’historique de recherche et peut voir pas sur la pertinence, quand je fait une recherche je précise les mot important pour cette recherche et ce c@@ d’algorithme me propose trop de truc qui tourne bien autour du sujet recherché et c'est ça le problème le fait que ça tourne autour du sujet sans être réellement dedans.

  5. #5
    Invité
    Invité(e)
    Par défaut
    Bonjour,

    Quel est votre avis sur le sujet ?
    Le problème de fond , c'est lorsque l'utilisateur regarde des vidéos "peu attratives financièrement" pour Youtube. Youtube va alors tenter de proposer un genre de "pute/nid à clic" . Youtube se fiche pas mal de savoir la qualité de la vidéo ... même si celle est nocif. Tout ce qui importe "c'est l'aspect $$$" que cela génère.

    D’où des utilisateurs qui peuvent être déçus de la vidéo vue ...

Discussions similaires

  1. Réponses: 13
    Dernier message: 29/08/2016, 13h20
  2. Réponses: 0
    Dernier message: 03/05/2015, 02h00
  3. Réponses: 7
    Dernier message: 19/09/2010, 01h45
  4. Réponses: 0
    Dernier message: 14/04/2009, 00h40
  5. Des checkbuttons qui conservent les paramètres
    Par steph70 dans le forum Tkinter
    Réponses: 4
    Dernier message: 05/03/2009, 16h30

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo