Google, Facebook et Twitter privilégient l'utilisation de l'IA pour les activités de modération et préviennent que des erreurs peuvent survenir,
leurs employés étant priés de rester chez eux à cause du COVID-19
Les mesures prises par les États et les entreprises pour limiter la propagation du coronavirus se multiplient. La réduction des déplacements fait partie de ces dispositions. De leur côté, les sociétés doivent réduire les effectifs présents dans leurs locaux et la majorité, voire la quasi-totalité des employés, doivent se mettre en télétravail. Et les géants du Web ne font pas exception.
Concernant les activités de modération, Google, Facebook et Twitter déclarent qu'ils vont davantage solliciter les outils gérés par l'intelligence artificielle.
« Nous avons toujours utilisé une combinaison d'humains et de machines pour examiner le contenu de nos plateformes, comme YouTube. Compte tenu de cette situation unique, nous allons temporairement accroître notre dépendance à l'égard des systèmes automatisés, afin de réduire la nécessité pour les personnes de venir au bureau. Notre objectif est de continuer à agir rapidement pour supprimer le contenu qui viole nos directives et politiques communautaires », explique la firme de Mountain View dans son blog.
Pour sa part, Twitter annonce une augmentation de « l'utilisation de l'apprentissage automatique et de l'automatisation pour prendre un large un éventail d'actions sur le contenu potentiellement abusif et manipulateur ».
Facebook, quant à lui, déclare avoir investi considérablement dans la sûreté et la sécurité au cours des deux dernières années, notamment en développant ses capacités d'apprentissage automatique. « Avec moins de personnes disponibles pour l'examen humain, nous continuerons à prioriser les dommages imminents et à accroître notre recours à la détection proactive dans d'autres domaines pour supprimer le contenu violé », souligne la société.
Toutefois, les trois entreprises tiennent à préciser que leurs outils respectifs peuvent commettre des erreurs.
Sur YouTube par exemple, Google annonce l'éventualité du fait que les contenus qui ne violent pas ses politiques soient classés automatiquement pour suppression pendant la période de confinement. De plus, les traitements des appels contre les décisions prises par l'outil peuvent prendre beaucoup plus de temps.
« Nous voulons être clairs : pendant que nous travaillons pour assurer la cohérence de nos systèmes, ils peuvent parfois manquer du contexte apporté par nos équipes, ce qui peut nous amener à commettre des erreurs. En conséquence, nous ne suspendrons définitivement aucun compte uniquement sur la base de nos systèmes d'application automatisés. Au lieu de cela, nous continuerons à chercher des opportunités pour intégrer des contrôles d'examen humain là où ils auront le plus d'impact », indique Twitter.
Et pour Facebook, le recours à l'utilisation des outils basés sur l'IA « peut présenter certaines limites », tout en ajoutant que les temps de réponse aux requêtes des utilisateurs ciblés seront plus longs.
Sources : Google, Facebook, Twitter
Et vous ?
Que pensez-vous de l'efficacité des outils de modération utilisés par ces entreprises ?
Voir aussi :
Twitter va commencer à étiqueter les deepfakes ainsi que d'autres contenus trompeurs avant l'élection présidentielle de 2020 aux USA, et supprimera ceux susceptibles de causer de graves dommages
Alors que la désinformation sur le coronavirus inonde Facebook et Twitter, pour Elon Musk, « la panique autour du coronavirus est stupide »
Facebook obtient un brevet pour le bannissement furtif, une technique consistant à mettre en quarantaine du contenu « prohibé »
Des chercheurs créent une IA qui rend facile la création de deepfakes à partir d'une seule image, et les résultats sont dangereusement réalistes
Partager