IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #381
    Membre régulier
    Profil pro
    Inscrit en
    Février 2011
    Messages
    64
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Février 2011
    Messages : 64
    Points : 117
    Points
    117
    Par défaut
    Si c'était Trump cela n'aurait posé aucun problème et serait même relayé par les médias de masse comme une preuve de la dangerosité de Trump. Posez-vous juste la question du pourquoi du comment.

  2. #382
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 375
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 375
    Points : 95 668
    Points
    95 668
    Par défaut TikTok va étiqueter automatiquement les contenus générés par IA sur des plateformes comme DALL-E 3
    TikTok va étiqueter automatiquement les contenus générés par IA sur des plateformes comme DALL-E 3 afin de lutter contre la désinformation, en utilisant la technologie d'authentification des contenus de C2PA.

    TikTok va étiqueter automatiquement les contenus générés par l'IA. Le géant des médias sociaux a déclaré que l'objectif était de lutter contre la désinformation.

    TikTok a annoncé sur "GMA" qu'à partir de maintenant, le géant des médias sociaux étiquettera automatiquement les contenus générés par l'intelligence artificielle lorsqu'ils seront téléchargés à partir de certaines plateformes.

    "Nos utilisateurs et nos créateurs sont très enthousiastes à propos de l'IA et de ce qu'elle peut faire pour leur créativité et leur capacité à se connecter avec le public." a déclaré Adam Presser, responsable des opérations, de la confiance et de la sécurité chez TikTok. "Et en même temps, nous voulons nous assurer que les gens ont la capacité de comprendre ce qu'est un fait et ce qu'est une fiction."

    Le géant des médias sociaux affirme qu'il devient la première plateforme de partage de vidéos à mettre en œuvre la technologie Content Credentials, une norme technique ouverte qui permet aux éditeurs, aux créateurs et aux consommateurs de retracer l'origine de différents types de médias. "C'est comme une étiquette nutritionnelle pour le contenu. Il vous indique ce qui s'est passé dans l'image, où elle a été prise, qui l'a réalisée et les modifications qui ont été apportées en cours de route", a expliqué Dana Rao, Chief Trust Officer d'Adobe.

    Nom : 1.jpg
Affichages : 6007
Taille : 49,6 Ko

    Adobe est l'un des membres fondateurs de la Coalition for Content Provenance and Authenticity (C2PA), une coalition d'entreprises qui travaillent ensemble pour faire avancer l'adoption de cette nouvelle norme numérique. Les Content Credentials (étiquettes nutritionnelles numériques) sont de plus en plus utilisés comme norme pour certifier le contenu numérique.

    Au début de l'année, OpenAI a annoncé qu'elle ajouterait cette technologie à toutes les images créées et éditées par DALL.E 3, son dernier modèle d'image. OpenAI a également déclaré qu'elle prévoyait d'intégrer les certificats de contenu à son modèle de génération de vidéos, Sora, une fois qu'il sera lancé à plus grande échelle. D'autres produits dotés de capacités d'IA générative, comme Adobe Firefly, Photoshop, Express et Microsoft Copilot, utilisent déjà la technologie pour intégrer des métadonnées dans le contenu visuel créé à l'aide de leurs plateformes.

    "Certains éléments du tableau se mettent en place", remarque Sam Gregory, directeur exécutif de Witness et expert en matière de "deepfakes". "Il est essentiel que des entreprises spécifiques rendent aussi facile que possible de savoir quand un contenu a été créé à l'aide de leurs outils en fournissant des classifications spécifiques à ces derniers."

    TikTok a déclaré que le déploiement de ce nouveau label commence aujourd'hui et s'appliquera à tous les utilisateurs à l'échelle mondiale dans les semaines à venir. Au cours des prochains mois, TikTok commencera également à attacher des références de contenu au contenu, qui resteront sur le contenu lorsqu'il sera téléchargé, ce qui permettra à d'autres plateformes de lire les métadonnées.


    Avec l'élection présidentielle américaine qui se profile à l'horizon et les élections qui s'enchaînent dans le monde entier, les demandes de détection en ligne des contenus générés par l'IA se font de plus en plus pressantes.

    "Ni l'une ni l'autre n'est une solution miracle, ni maintenant ni lorsqu'elles seront pleinement utilisées et fournies - elles constituent une forme de réduction des dommages qui permet de discerner plus facilement quand et comment l'IA a été utilisée", a expliqué M. Gregory. "Les créateurs et distributeurs malveillants et trompeurs trouveront toujours un moyen de les contourner, mais la plupart d'entre nous seront heureux de les utiliser s'ils ne compromettent pas notre vie privée ou notre capacité à créer."

    Rao pense que nous nous dirigerons vers un monde en ligne où les contenus qui portent ces étiquettes nutritionnelles numériques pourraient être plus dignes de confiance ou plus valorisés que ceux qui n'en portent pas. "La valeur réelle sera l'authenticité", souligne M. Rao. "Les créateurs veulent avoir une communication authentique avec leurs spectateurs, et ce certificat de contenu permet donc aux créateurs d'établir le niveau d'authenticité qu'ils souhaitent avec leur public."

    Source : TikTok

    Et vous ?

    Pensez-vous que cette initiative est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    TikTok permet aux utilisateurs de diffuser des deepfakes de Joe Biden générés par l'IA malgré les politiques de la plateforme, qui interdisent les contenus pouvant induire en erreur sur des faits réels

    OpenAI lance un outil capable de détecter les images créées par son générateur texte-image DALL-E 3, afin de répondre aux inquiétudes concernant l'influence des contenus générés par l'IA lors des élections

    Les experts sont sceptiques quant à l'efficacité d'une norme mondiale en matière de filigrane visant à étiqueter les contenus générés par l'IA pour empêcher la désinformation et la manipulation

  3. #383
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 375
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 375
    Points : 95 668
    Points
    95 668
    Par défaut Plus de 70 % des consommateurs craignent d'être dupés par une deepfake et de son influence sur les élections
    Plus de 70 % des consommateurs craignent d'être dupés par une deepfake et de voir l'IA et les deepfakes influencer les prochaines élections dans leur pays, selon une étude de Jumio.

    Une nouvelle étude de la société de vérification d'identité Jumio révèle une inquiétude croissante quant à l'influence politique que l'IA et les deepfakes pourraient avoir lors des prochaines élections et à la manière dont ils pourraient influencer la confiance dans les médias en ligne.

    L'étude menée auprès de plus de 8 000 consommateurs adultes, répartis équitablement entre le Royaume-Uni, les États-Unis, Singapour et le Mexique, révèle que 72 % des consommateurs améticains s'inquiètent de l'influence potentielle de l'IA et des deepfakes sur les prochaines élections dans leur pays. Ils estiment que les deepfakes minent la confiance dans les politiciens et les médias, 70 % d'entre eux faisant état d'un scepticisme accru à l'égard du contenu qu'ils voient en ligne, par rapport aux dernières élections.

    Au niveau mondial, seuls 46 % des consommateurs pensent qu'ils pourraient facilement repérer un deepfake d'une personnalité politique ou d'une célébrité. Ce chiffre tombe à 37 % aux États-Unis et la confiance varie en fonction de la tranche d'âge : seuls 22 % des Américains âgés de 55 ans ou plus ont confiance en leurs capacités. Les hommes âgés de 18 à 34 ans sont les plus confiants dans leur capacité à repérer les faux (75 %), tandis que les femmes âgées de 35 à 54 ans sont les moins confiantes (52 %).

    Seuls 43 % des consommateurs du monde entier déclarent faire confiance aux informations politiques qu'ils voient en ligne, malgré la possibilité de tomber sur des deepfakes audio, vidéo et image. Les Américains sont beaucoup moins confiants (32 %). Au niveau mondial, seulement 43 % des personnes interrogées ont confiance dans la capacité de leur gouvernement à réglementer l'IA, ce chiffre tombant à 31 % aux États-Unis et à seulement 26 % au Royaume-Uni.

    Nom : 0.jpg
Affichages : 3278
Taille : 60,9 Ko

    « Avec la moitié de la population mondiale participant aux élections cette année, l'influence et l'impact potentiels de l'IA générative et des deepfakes exigent notre attention immédiate », déclare Robert Prigge, PDG de Jumio. « La confiance du public dans l'information en ligne s'effrite, exigeant un discours transparent pour faire face à ce défi et donner aux citoyens les outils pour discerner et signaler les deepfakes. Les plateformes en ligne ont le devoir essentiel de tirer parti de mesures de détection de pointe telles que les systèmes de vérification multimodaux basés sur la biométrie pour renforcer nos défenses contre les "deepfakes" qui influencent des élections cruciales. »

    À propos de la recherche

    L'étude annuelle Jumio Online Identity Consumer Study, qui en est à sa troisième année, explore la sensibilisation et le sentiment des consommateurs autour des questions liées à l'identité en ligne, aux risques de fraude et aux méthodes actuelles utilisées pour protéger les données d'identité des consommateurs.

    Les résultats de 2024 mettent en évidence les préoccupations importantes des consommateurs concernant les risques associés à l'IA générative et aux deepfakes, notamment le potentiel d'augmentation de la cybercriminalité et de l'usurpation d'identité. L'étude démontre le besoin pressant de s'assurer de l'authenticité des utilisateurs.

    Nom : 1.jpg
Affichages : 418
Taille : 65,0 Ko

    Principales conclusions

    1. 72 % des consommateurs s'inquiètent quotidiennement d'être trompés par un deepfake et souhaitent que leur gouvernement fasse davantage pour réglementer l'IA. Les trois quarts des consommateurs s'inquiètent quotidiennement d'être trompés par un deepfake et d'avoir à communiquer des informations sensibles ou de l'argent. Seuls 15 % des consommateurs déclarent n'avoir jamais été confrontés à un deepfake, tandis que 60 % l'ont été au cours de l'année écoulée et que 22 % n'en sont pas sûrs.

      Une majorité significative de consommateurs appelle à une plus grande réglementation gouvernementale de l'IA afin de résoudre les problèmes liés aux deepfakes et à l'IA générative. Toutefois, la confiance dans la réglementation varie d'un pays à l'autre.

      Nom : 2.jpg
Affichages : 427
Taille : 58,3 Ko
    2. Les consommateurs continuent de surestimer leur propre capacité à repérer les deepfakes. Même si cette technologie de plus en plus répandue et en constante évolution suscite une grande anxiété, les consommateurs continuent de surestimer leur propre capacité à repérer les deepfakes - 60 % d'entre eux pensent qu'ils pourraient détecter un deepfake, contre 52 % en 2023.

      Les hommes sont plus confiants dans leur capacité à repérer un deepfake (66 % des hommes contre 55 % des femmes). Les hommes âgés de 18 à 34 ans sont les plus confiants (75%), tandis que les femmes âgées de 35 à 54 ans sont les moins confiantes (52%)

      Nom : 3.jpg
Affichages : 417
Taille : 38,0 Ko
    3. Une vérification plus rigoureuse de l'identité est nécessaire pour se protéger contre l'usurpation d'identité et la fraude, qui sont coûteuses et répandues. La fraude est un problème bien trop familier pour de nombreux consommateurs à travers le monde, 68% des personnes interrogées déclarant qu'elles savent ou soupçonnent avoir été victimes d'une fraude en ligne ou d'un vol d'identité, ou qu'elles connaissent quelqu'un qui a été affecté.

      Un tiers (32 %)des consommateurs qui ont été ou pensent avoir été victimes d'une fraude en ligne déclarent que cela leur a causé des problèmes importants et plusieurs heures de travail administratif à résoudre, et 14 % vont même jusqu'à parler d'une expérience traumatisante. Plus de 70 % des consommateurs ont déclaré qu'ils consacreraient plus de temps à la vérification de l'identité si ces mesures amélioraient la sécurité dans des secteurs tels que les services financiers (77 %), la santé (74 %), le gouvernement (72 %), la vente au détail et le commerce électronique (72 %), les médias sociaux (71 %), l'économie de partage (71 %), et les voyages et l'hôtellerie (71 %).

      Lors de la création d'un nouveau compte en ligne, les consommateurs du monde entier ont déclaré que la prise d'une photo de leur pièce d'identité et d'un selfie en direct serait la forme la plus précise de vérification de l'identité (21 %), la création d'un mot de passe sécurisé arrivant juste derrière (19 %). Qu'ils aient été ou non victimes de fraude ou d'usurpation d'identité, la plupart des consommateurs s'inquiètent chaque jour de la possibilité d'être victimes d'une violation de données ou d'une prise de contrôle de leur compte.


    Nom : 4.jpg
Affichages : 420
Taille : 62,3 Ko

    La sécurité dans les services financiers

    La majorité des consommateurs sont prêts à changer de banque en raison d'une protection inadéquate contre la fraude. Ils estiment que les prestataires de services bancaires sont responsables en dernier ressort de la protection des clients et de l'indemnisation des victimes de fraude.

    75 % d'entre eux attendent un remboursement intégral de leur banque s'ils sont victimes de la cybercriminalité. La technologie utilisée par les fraudeurs devenant de plus en plus sophistiquée, les outils de prévention et de détection des escroqueries doivent eux aussi évoluer. 69 % des clients exigent des mesures de cybersécurité plus strictes, car la confiance dans les protections des banques diminue.

    Nom : 5.jpg
Affichages : 426
Taille : 84,8 Ko

    Deepfakes et Elections

    Alors que plus de 50 pays organisent des élections nationales en 2024, Jumio a étudié la perception des deepfakes par les consommateurs et la manière dont ils pourraient influencer la confiance dans les médias en ligne. Les données révèlent également une évolution de la relation entre le public et les médias en ligne.

    Nom : 6.jpg
Affichages : 418
Taille : 140,5 Ko

    Source : Jumio Online Identity Consumer Study 2024

    Et vous ?

    Pensez-vous que cette étude est crédible ou pertinente ?
    Quel est votre avis sur le sujet ?

    Voir aussi :

    Un expert en IA « complètement terrifié » par les élections américaines de 2024, qui s'annoncent comme un « tsunami de désinformation » avec l'avènement des deepfakes et les IA génératives

    Les "deepfakes" politiques représentent l'utilisation abusive la plus populaire de l'IA : sa faible technicité et son accessibilité ont accru l'utilisation malveillante de l'IA générative, selon DeepMind

    La NSA, le FBI et la CISA publient une fiche d'information sur la cybersécurité concernant les menaces liées aux Deepfake
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  4. #384
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 189
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 189
    Points : 19 600
    Points
    19 600
    Par défaut Les cyberattaques par IA sont une telle menace que 73 % des sociétés US ont un plan de réponse aux deepfakes
    Les cyberattaques par IA sont une telle menace que 73 % des entreprises américaines ont un plan de réponse aux deepfakes, et 69 % sont tenues d'utiliser l'authentification biométrique pour renforcer la sécurité

    Compte tenu du niveau d'inquiétude suscité par l'influence des « deepfakes », il n'est peut-être pas surprenant d'apprendre que les entreprises élaborent leurs propres plans de réponse aux « deepfakes ».

    Une nouvelle enquête menée par le moteur de recommandation de logiciels GetApp auprès de plus de 2 600 professionnels mondiaux de l'informatique et de la cybersécurité révèle que 73 % des personnes interrogées aux États-Unis déclarent que leur organisation a élaboré un plan de réponse aux deepfakes.

    Parmi les répondants américains, 69 % sont tenus d'utiliser l'authentification biométrique pour renforcer la cybersécurité, ce qui est supérieur à la moyenne mondiale de 53 %. Toutefois, la confiance dans ces systèmes diminue, 36 % d'entre eux se déclarant très préoccupés par les capacités croissantes de l'IA à fabriquer des données biométriques synthétiques à des fins de fraude.

    Nom : type-biometrics-implemented-US-GA-INFOGRAPHIC-1.png
Affichages : 3499
Taille : 57,3 Ko

    Globalement, 49 % des professionnels sont préoccupés par la protection de la vie privée et 38 % craignent un vol d'identité potentiel lié à l'utilisation de protections biométriques.

    En outre, 60 % des professionnels mondiaux de l'informatique et de la sécurité déclarent que leur entreprise a mis au point des mesures de défense contre les attaques de type « deepfake » générées par l'IA. 77 % indiquent que leur entreprise a augmenté ses investissements en matière de cybersécurité au cours des 18 derniers mois.

    « Les dirigeants d'entreprise ont besoin d'être rassurés sur le fait que leurs protections peuvent encore fonctionner pour les défendre contre les menaces », déclare David Jani, analyste principal de la sécurité chez GetApp. « En pratique, cela signifie que les dirigeants doivent revoir la façon dont ils protègent l'accès à leurs systèmes et comprendre les meilleurs moyens de relever le défi des nouvelles fraudes plus ciblées.

    Nom : Policies-to-prevent-cyberattacks-US-GA-INFOGRAPHIC-4.png
Affichages : 432
Taille : 61,3 Ko

    Les entreprises interrogées au niveau mondial qui ont déjà subi des cyberattaques se tournent vers des mesures qui peuvent être mises en œuvre immédiatement et souvent à un coût minime pour renforcer les vulnérabilités. Il s'agit notamment d'améliorer la sécurité des réseaux, de donner la priorité aux mises à jour de logiciels et de renforcer les politiques de mots de passe. En outre, de nombreuses personnes interrogées aux États-Unis (49 %) se concentrent sur l'utilisation de solutions de chiffrement des données pour protéger leurs données.

    Source : "2024 Executive Security Survey" (GetApp)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous les conclusions de cette étude de GetApp crédibles ou pertinentes ?

    Voir aussi :

    Plus de 70 % des consommateurs craignent d'être dupés par un deepfake et de voir l'IA et les deepfakes influencer les prochaines élections dans leur pays, selon une étude de Jumio

    72 % des consommateurs s'inquiètent quotidiennement d'être trompés par des "deepfakes", et les gens surestiment également leur capacité à repérer les "deepfakes", selon un rapport de Jumio

    Les deepfakes sont désormais le deuxième incident de sécurité le plus fréquent, les attaquants utilisent la technologie d'IA pour inciter les victimes à effectuer des transferts de fonds, d'après ISMS.online
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  5. #385
    Communiqués de presse

    Femme Profil pro
    Traductrice Technique
    Inscrit en
    Juin 2023
    Messages
    1 375
    Détails du profil
    Informations personnelles :
    Sexe : Femme
    Localisation : France

    Informations professionnelles :
    Activité : Traductrice Technique

    Informations forums :
    Inscription : Juin 2023
    Messages : 1 375
    Points : 95 668
    Points
    95 668
    Par défaut Elon Musk partage une vidéo manipulée imitant la voix de la vice-présidente des États-Unis Kamala Harris
    Une vidéo manipulée partagée par Elon Musk imite la voix de la vice-présidente des États-Unis Kamala Harris, ce qui soulève des inquiétudes quant à l'utilisation de l'IA en politique.

    Une vidéo manipulée partagée par Elon Musk imite la voix de la vice-présidente des États-Unis Kamala Harris. Des experts ont confirmé qu'une grande partie de la voix a été générée par l'IA. Cela soulève des questions sur une utilisation appropriée de l'IA dans la politique, en particulier, car Elon Musk n'a mis aucune étiquette indicant la nature parodique de la vidéo.

    Elon Musk est un homme d'affaires et un investisseur connu pour ses rôles clés dans la société spatiale SpaceX et la société automobile Tesla, Inc. Il est également propriétaire de la plateforme X, anciennement connue sous le nom de Twitter, et a participé à la création de xAI et Neuralink. Il est l'une des personnes les plus riches du monde et ces opinions ont fait de lui une figure polarisante.

    Il a été critiqué pour avoir fait des déclarations non scientifiques et trompeuses, y compris la désinformation COVID-19, pour avoir promu des théories du complot de droite et pour avoir "approuvé une théorie antisémite", ce dont il s'est excusé par la suite. Récemment, il a partagé une vidéo manipulée où on entend une imitation de la voix de la vice-présidente des États-Unis Kamala Harris.

    Sous la présidence de Joe Biden, Kamala Harris est la première femme vice-présidente et la plus haute fonctionnaire de l'histoire des États-Unis, ainsi que la première Afro-Américaine et la première Sud-Asiatique vice-présidente. Membre du Parti démocrate, Harris a lancé sa propre campagne présidentielle avec l'appui de Biden après le retrait de ce dernier de l'élection présidentielle de 2024.

    Une vidéo manipulée qui imite la voix de la vice-présidente Kamala Harris en disant des choses qu'elle n'a pas dites suscite des inquiétudes quant au pouvoir de l'intelligence artificielle à induire en erreur à trois mois du jour du scrutin. La vidéo a attiré l'attention après que le milliardaire de la technologie Elon Musk l'a partagée sur sa plateforme de médias sociaux X, sans indiquer explicitement qu'il s'agissait à l'origine d'une parodie.

    La vidéo reprend de nombreux éléments visuels d'une véritable publicité que Mme Harris, candidate probable à la présidence du parti démocrate, a publiée pour lancer sa campagne. Mais la vidéo remplace la voix off par une autre voix qui imite de manière convaincante celle de Mme Harris.

    « Je suis Kamala Harris, votre candidate démocrate à la présidence parce que Joe Biden a finalement révélé sa sénilité lors du débat », déclare la voix dans la vidéo. Elle affirme que Mme Harris est une « candidate de la diversité » parce qu'elle est une femme et une personne de couleur, et qu'elle ne connaît pas « la moindre chose sur la façon de diriger le pays ». La vidéo conserve la marque « Harris for President ». Elle ajoute également d'anciens clips authentiques de Mme Harris.

    Mia Ehrenberg, porte-parole de la campagne de Mme Harris, a déclaré : « Nous pensons que le peuple américain veut la vraie liberté, les opportunités et la sécurité que le vice-président Harris propose, et non les mensonges manipulés d'Elon Musk et de Donald Trump. »

    La video soulève des questionnements sur l'IA

    La vidéo largement partagée est un exemple de la manière dont des images, des vidéos ou des clips audios générés par l'IA ont été utilisés à la fois pour se moquer de la politique et pour induire en erreur, alors que les États-Unis se rapprochent de l'élection présidentielle. Elle montre comment, alors que les outils d'IA de haute qualité sont devenus beaucoup plus accessibles, le gouvernement fédéral n'a pas encore pris de mesures significatives pour réglementer leur utilisation, laissant aux États et aux plateformes de médias sociaux le soin de définir les règles régissant l'utilisation de l'IA en politique.

    La vidéo soulève également des questions sur la meilleure façon de traiter les contenus qui brouillent les limites de ce qui est considéré comme une utilisation appropriée de l'IA, en particulier s'ils entrent dans la catégorie de la satire.

    L'utilisateur original qui a posté la vidéo, un YouTubeur connu sous le nom de Mr Reagan, a révélé à la fois sur YouTube et sur X que la vidéo manipulée était une parodie. Mais le message de M. Musk, qui a été visionné plus de 123 millions de fois, selon la plateforme, ne comporte que la légende « C'est incroyable » accompagnée d'un émoji qui rit. À noter que Musk a soutenu l'ancien président Donald Trump, le candidat républicain.

    Les utilisateurs de X qui connaissent bien la plateforme sauront peut-être qu'il faut cliquer sur le message de Musk pour accéder au message de l'utilisateur original, où la divulgation est visible. La légende de Musk ne les incite pas à le faire.

    Bien que certains participants à la fonction "note de la communauté" de X, qui permet d'ajouter un contexte aux messages, aient suggéré d'étiqueter le message de Musk, aucune étiquette de ce type n'avait été ajoutée à ce dernier. Certains utilisateurs en ligne se sont demandé si son message ne violait pas les règles de X, qui stipulent que les utilisateurs "ne peuvent pas partager des médias synthétiques, manipulés ou hors contexte susceptibles de tromper ou d'embrouiller les gens et de leur causer du tort". Cette politique prévoit une exception pour les mèmes et la satire, à condition qu'ils ne causent pas de "confusion significative quant à l'authenticité du média".

    Deux experts spécialisés dans les médias générés par l'IA ont examiné le son de la fausse publicité et ont confirmé qu'une grande partie avait été générée à l'aide de la technologie de l'IA. L'un d'entre eux, Hany Farid, expert en criminalistique numérique de l'université de Californie à Berkeley, a déclaré que la vidéo montrait la puissance de l'IA générative et des "deepfakes".

    « La voix générée par l'IA est très bonne », a-t-il déclaré. « Même si la plupart des gens ne croiront pas qu'il s'agît de la voix de la vice-présidente Harris, la vidéo est d'autant plus puissante que les mots sont prononcés par elle. »

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous la vidéo pertinente voir amusante ? ou alors pensez-vous que c'est honteux de diffuser ce genre de désinformations ? Pour ou contre ?

    Voir aussi :

    Plus de 70 % des consommateurs craignent d'être dupés par un deepfake et de voir l'IA et les deepfakes influencer les prochaines élections dans leur pays, selon une étude de Jumio

    Un expert en IA « complètement terrifié » par les élections américaines de 2024, qui s'annoncent comme un « tsunami de désinformation », avec l'avènement des deepfakes et les IA génératives

    Les "deepfakes" politiques représentent l'utilisation abusive la plus populaire de l'IA : sa faible technicité et son accessibilité ont accru l'utilisation malveillante de l'IA générative, selon DeepMind
    Publication de communiqués de presse en informatique. Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  6. #386
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 801
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 801
    Points : 18 830
    Points
    18 830
    Par défaut
    Citation Envoyé par Jade Emy Voir le message
    Quel est votre avis sur le sujet ?
    L'intégralité des individus qui ont regardé cette vidéo savent qu'elle est fausse.
    Cela dit il y a passage réel et on voit bien la différence.

    Kamala Harris repeats same expression four times in speech loop
    The vice president, who was speaking on Monday in Sunset, Louisiana, repeated the same phrase, “the significance of the passage of time”, four times in a row.
    À la limite ils pourraient mettre un petit "réalisé avec trucage" de cette façon plus personne ne pourrait critiquer ces vidéos humoristiques.
    Keith Flint 1969 - 2019

  7. #387
    Membre averti
    Profil pro
    Inscrit en
    Mars 2011
    Messages
    126
    Détails du profil
    Informations personnelles :
    Localisation : France

    Informations forums :
    Inscription : Mars 2011
    Messages : 126
    Points : 379
    Points
    379
    Par défaut
    Citation Envoyé par Ryu2000 Voir le message
    L'intégralité des individus qui ont regardé cette vidéo savent qu'elle est fausse.
    Cela dit il y a passage réel et on voit bien la différence.

    Kamala Harris repeats same expression four times in speech loop


    À la limite ils pourraient mettre un petit "réalisé avec trucage" de cette façon plus personne ne pourrait critiquer ces vidéos humoristiques.
    Sur YouTube c'est obligatoire. La Satire est bien évidemment autorisée, mais il faut incruster l'information concernant la modification de la vidéo originale. Et plus aucun problème. Si la mention n'est pas précisée, la vidéo est supprimée et la chaîne également après plusieurs avertissement.

  8. #388
    Membre extrêmement actif
    Homme Profil pro
    Inscrit en
    Janvier 2014
    Messages
    1 529
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France

    Informations forums :
    Inscription : Janvier 2014
    Messages : 1 529
    Points : 5 829
    Points
    5 829
    Par défaut
    La suite pour Kamala Harris



    « L’humour est une forme d'esprit railleuse qui s'attache à souligner le caractère comique, ridicule, absurde ou insolite de certains aspects de la réalité »

  9. #389
    Membre éclairé Avatar de Nain porte koi
    Homme Profil pro
    peu importe
    Inscrit en
    Novembre 2023
    Messages
    419
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : peu importe

    Informations forums :
    Inscription : Novembre 2023
    Messages : 419
    Points : 659
    Points
    659
    Par défaut
    L'intégralité des individus qui ont regardé cette vidéo savent qu'elle est fausse.
    C'est beau de croire que personne n'est crédule.
    Si c'était le cas il n'y aurait plus jamais de phising et autre joyeusetés qui se basent exclusivement sur la crédulité.
    JièL
    Membre des AMIS
    Anti Macro Inutilement Superfétatoire

  10. #390
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 801
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 801
    Points : 18 830
    Points
    18 830
    Par défaut
    Citation Envoyé par Nain porte koi Voir le message
    Si c'était le cas
    Non mais là il faut voir le contexte, il est évident que ce n'est pas la vraie Kamala Harris qui dit ça.
    C'est clair.

    De toute façon le plus néfaste pour Kamala Harris ce ne sont pas les fausses vidéos mais les vraies.
    Par exemple :
    https://twitter.com/mitchellvii/stat...34578902905208
    Kamala Harris is asked a simple question on how she will fix inflation and she proceeds to give a completely useless word salad with zero solutions. There is no way this woman should be the President. Please retweet this so everyone can see!
    Keith Flint 1969 - 2019

  11. #391
    Membre éclairé Avatar de Nain porte koi
    Homme Profil pro
    peu importe
    Inscrit en
    Novembre 2023
    Messages
    419
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Bouches du Rhône (Provence Alpes Côte d'Azur)

    Informations professionnelles :
    Activité : peu importe

    Informations forums :
    Inscription : Novembre 2023
    Messages : 419
    Points : 659
    Points
    659
    Par défaut
    Non mais là il faut voir le contexte, il est évident que ce n'est pas la vraie Kamala Harris qui dit ça.
    Donc sur les 13 millions de vues (au moment de cet article) pas une seule personne n'a cru que c'était un fake ?!
    Là je pense que c'est toi qui est crédule (sans vouloir te vexer).
    JièL
    Membre des AMIS
    Anti Macro Inutilement Superfétatoire

  12. #392
    Membre extrêmement actif Avatar de ddoumeche
    Homme Profil pro
    Ingénieur recherche et développement
    Inscrit en
    Octobre 2007
    Messages
    1 687
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Singapour

    Informations professionnelles :
    Activité : Ingénieur recherche et développement

    Informations forums :
    Inscription : Octobre 2007
    Messages : 1 687
    Points : 2 014
    Points
    2 014
    Par défaut
    Citation Envoyé par Nain porte koi Voir le message
    Donc sur les 13 millions de vues (au moment de cet article) pas une seule personne n'a cru que c'était un fake ?!
    Là je pense que c'est toi qui est crédule (sans vouloir te vexer).
    Il y a toujours des gens attardés qui croient n'importe quoi, et finissent au parti communiste ou à la LFI
    ________________________________

    La jeunesse emmerde le Front Populaire

  13. #393
    Membre extrêmement actif
    Avatar de Ryu2000
    Homme Profil pro
    Étudiant
    Inscrit en
    Décembre 2008
    Messages
    9 801
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Âge : 36
    Localisation : France, Hérault (Languedoc Roussillon)

    Informations professionnelles :
    Activité : Étudiant

    Informations forums :
    Inscription : Décembre 2008
    Messages : 9 801
    Points : 18 830
    Points
    18 830
    Par défaut
    Citation Envoyé par Nain porte koi Voir le message
    pas une seule personne n'a cru que c'était un fake ?!
    En tout cas il est très simple de voir que c'est un fake.
    Encore une fois, le problème de Kamala Harris ce n'est pas ce qu'on lui fait dire, mais ce qu'elle dit réellement.
    Keith Flint 1969 - 2019

Discussions similaires

  1. Réponses: 69
    Dernier message: 24/11/2023, 13h10
  2. Réponses: 4
    Dernier message: 15/07/2021, 14h42
  3. Réponses: 0
    Dernier message: 19/03/2021, 07h58
  4. Réponses: 2
    Dernier message: 30/07/2015, 00h48
  5. Réponses: 3
    Dernier message: 20/06/2012, 18h00

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo