Les humains ne peuvent détecter que 73 % des discours Deep Fake selon l'étude des chercheurs de l'Université de Londres.

L'intelligence artificielle a changé la façon dont nous percevons les choses. L'intelligence artificielle étant capable de tout faire, dans l'ensemble, les gens parlent de l'impact très bénéfique de l'IA dans leur vie. Pourtant, en arrière-plan, certaines voix d'experts en technologie s'interrogent sur les préoccupations éthiques liées au pouvoir de plus en plus grand que prend l'IA dans la navigation de nos vies. Parmi les préoccupations et les risques éthiques les plus importants de l'IA, on peut citer les progrès de la technologie des Deep Fake.

Les Deep Fake sont des systèmes algorithmiques permettant d'imiter la voix ou l'apparence physique d'un être humain. Les Deep Fake utilisent les ensembles de données pour apprendre des modèles de comportement similaires qui imitent la voix humaine ou les caractéristiques corporelles avec une telle précision qu'ils ressemblent presque à un son ou à une vidéo d'origine. Les recherches menées par les chercheurs de l'université de Londres ont montré qu'à l'heure actuelle, les humains ne peuvent détecter que 73 % des discours Deep Fake générés pour l'anglais et le mandarin.

Nom : 1.png
Affichages : 872
Taille : 45,5 Ko

Lors des premières étapes du développement des Deep Fake, des milliers d'heures d'échantillonnage ont été nécessaires pour générer une qualité similaire à celle de l'audio original. Selon les principes de fonctionnement de l'apprentissage automatique, plus le système est alimenté en données, plus il produira des résultats précis en peu de temps. Par conséquent, les derniers algorithmes d'imitation profonde ne consistent pas à produire la voix d'une même personne avec une précision relativement élevée en utilisant simplement un clip audio de trois secondes. Aujourd'hui, grâce à la disponibilité de sources ouvertes, les gens peuvent demander l'aide d'experts et la possibilité d'entraîner les algorithmes en quelques jours seulement.

Les grandes entreprises technologiques comme Apple ont fait des déclarations officielles sur la sortie de logiciels pilotés par l'IA pour leurs produits iPhone et iPad, qui seront capables de créer une copie exacte de la voix d'une personne avec seulement 15 minutes d'enregistrements authentiques. L'équipe de recherche de l'université de Londres a généré 50 fausses voix profondes à l'aide d'algorithmes de synthèse vocale. Les modèles IA ont été entraînés sur des ensembles de données publiques disponibles sur l'internet, un modèle étant destiné à la langue anglaise et l'autre au mandarin.

Nom : 2.png
Affichages : 433
Taille : 132,8 Ko

Les échantillons produits par des Deep Fake et des échantillons authentiques ont ensuite été joués à 529 participants pour tester s'ils pouvaient identifier la différence entre les enregistrements réels et les faux. Les résultats ont permis de conclure que seuls 73 % des enregistrements de discours falsifiés étaient identifiables et que ce pourcentage ne s'améliorait que légèrement lorsque les participants recevaient une formation appropriée sur l'identification et l'aspect du repérage des discours falsifiés profonds.

Kimberly Mai, informaticienne à l'université de Londres, a déclaré que les résultats montrent que les humains ne peuvent pas identifier les discours Deep Fake. Ce qui est encore plus choquant, c'est la révélation que les échantillons de Deep Fake que la plupart des gens ne sont pas en mesure de localiser ont été formés à l'aide d'anciens algorithmes d'apprentissage automatique, et cela soulève maintenant une question qui donne à réfléchir : si les discours Deep Fake sont faits à l'aide d'algorithmes d'apprentissage automatique plus récents et plus précis, les humains seront-ils en mesure de les détecter ?

Les capacités croissantes des Deep Fake à produire des enregistrements plus précis sont très préoccupantes, car elles tombent principalement entre les mains de criminels qui peuvent utiliser cette technologie pour nuire énormément aux gens. En 2019, un criminel a utilisé un enregistrement de Deep Fake pour convaincre le PDG d'une société énergétique britannique d'envoyer des milliers de livres sterling au mauvais fournisseur en utilisant la fausse voix de son patron.

Source : Chercheurs de l'Université de Londres

Et vous ?

Pensez-vous que cette étude est crédible ou pertinente ?
Quel est votre avis sur le sujet ? Sauriez-vous reconnaitre un discours Deep Fake ?

Voir aussi :

Des chercheurs développent une IA capable de détecter les vidéos deepfake avec une précision allant jusqu'à 99 %
Cette méthode détecte les expressions faciales manipulées et les échanges d'identité


Le nombre de contenus deepfake en ligne augmente à un rythme annuel de 900 %
D'après le World Economic Forum


Arnaque à l'IA : un couple canadien perd 21 000 dollars à cause d'une voix générée par IA qui avait imité à la perfection celle de leur fils
Prétendant que l'interessé avait des ennuis judiciaires