IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

Intelligence artificielle Discussion :

Deepfake : un employé paye 25 millions de dollars à des escrocs après une réunion vidéo


Sujet :

Intelligence artificielle

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    8 640
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 8 640
    Points : 201 375
    Points
    201 375
    Par défaut Deepfake : un employé paye 25 millions de dollars à des escrocs après une réunion vidéo
    Deepfake : un employé paye 25 millions de dollars à des escrocs après une réunion vidéo avec son directeur financier généré par IA,
    les anciennes conférences vidéos en ligne authentiques de ce directeur soupçonnées d'être à l'origine de ce deepfake

    Un employé du secteur financier a versé 25 millions de dollars à des escrocs qui se faisaient passer pour le directeur financier de son entreprise grâce à la technologie du deepfake lors d’un appel vidéo, selon la police de Hong Kong. L’arnaque élaborée a consisté à faire croire à l’employé qu’il participait à un appel vidéo avec plusieurs autres membres du personnel, mais tous étaient en fait des créations de deepfake, a déclaré la police de Hong Kong lors d’un briefing vendredi. « Dans la conférence vidéo à plusieurs personnes, il s’avère que tout le monde (qu’il a vu) était faux », a déclaré le surintendant principal Baron Chan Shun-ching à la radio publique RTHK.

    Le surintendant principal Baron Chan Shun-ching a déclaré que l’employé avait eu des soupçons après avoir reçu un message qui était censé provenir du directeur financier basé au Royaume-Uni de l’entreprise. Au départ, l’employé a pensé qu’il s’agissait d’un courriel de hameçonnage, car il parlait de la nécessité d’effectuer une transaction secrète.

    Pour rassurer leur victime, les hackers ont proposé d’organiser une réunion en visioconférence. L’employé a accepté de participer à cet appel vidéo avec son directeur. Lors de l'appel vidéo, l’employé a mis de côté ses doutes car les autres personnes présentes ressemblaient et parlaient comme des collègues qu’il reconnaissait, a déclaré Chan.

    Croyant que tout le monde sur l’appel était réel, l’employé a accepté de transférer un total de 200 millions de dollars de Hong Kong - environ 25 millions de dollars - a ajouté le policier. Au total, quinze virements ont été effectués par l’employé berné. La police a souligné que cette affaire était la première du genre à Hong Kong et qu'elle impliquait également une importante somme d'argent. Elle n'a toutefois pas révélé l'identité de l'employé ou de l'entreprise.

    L’affaire est l’un des plusieurs épisodes récents dans lesquels des escrocs auraient utilisé la technologie du deepfake pour modifier des vidéos et d’autres images disponibles publiquement afin de tromper les gens et de leur soutirer de l’argent.

    Lors du briefing de presse de vendredi, la police de Hong Kong a déclaré avoir procédé à six arrestations en lien avec de telles arnaques.

    Chan a déclaré que huit cartes d’identité volées à Hong Kong - toutes signalées comme perdues par leurs propriétaires - avaient été utilisées pour faire 90 demandes de prêt et 54 inscriptions de comptes bancaires entre juillet et septembre de l’année dernière. À au moins 20 reprises, des deepfakes basés sur l’intelligence artificielle avaient été utilisés pour tromper les programmes de reconnaissance faciale en imitant les personnes figurant sur les cartes d’identité, selon la police.

    L’arnaque impliquant le faux directeur financier n’a été découverte que bien plus tard, lorsque l’employé a vérifié auprès du siège social de l’entreprise. Les vidéos générées par l'IA auraient été créées à partir d'anciennes conférences en ligne authentiques. Pour donner plus de profondeur et de crédibilité à l'escroquerie, les auteurs ont eu recours à WhatsApp, au courrier électronique et à des vidéoconférences individuelles avec des membres du personnel de Hong Kong.

    « Je pense que le fraudeur a téléchargé des vidéos à l'avance et qu'il a ensuite utilisé l'intelligence artificielle pour ajouter de fausses voix à utiliser lors de la vidéoconférence », a déclaré le commissaire principal de la police de la ville, Baron Chan Shun-ching.

    Ce qui s'est passé exactement lors de l'appel fatidique n'est pas clair. Certains rapports suggèrent qu'un seul participant à l'appel était réel, tandis que d'autres suggèrent que plusieurs participants étaient humains. Tous s'accordent à dire que des humains générés par l'IA sont apparus et que, malheureusement, le professionnel de la finance anonyme a été dupé. La victime n'a découvert cette réalité qu'après avoir contacté le siège de l'entreprise (également anonyme).

    Le média local The Standard a déclaré que cet incident était la première escroquerie de type "deepfake" par vidéoconférence à Hong Kong.

    Nom : deep.png
Affichages : 7263
Taille : 204,3 Ko

    D'autres types de dégâts

    Les rapports montrent à quel point il est facile de tirer parti d'outils gratuits pour générer des images plus nuisibles. C'est ce qui s'est passé avec Taylor Swift, notamment avec la diffusion d'images pornographiques générées par IA de la star. Bien que l'on ne sache pas encore combien d'outils d'IA ont été utilisés pour générer le flot d'images nuisibles, 404 Media a confirmé que certains membres d'un groupe Telegram, par lequel les images sont venus, se sont servis du générateur d'IA texte-image gratuit de Microsoft, Designer.

    Selon 404 Media, les images n'ont pas été créées en entraînant un modèle d'IA sur les images de Taylor Swift, mais en piratant des outils tels que Designer pour contourner les mesures de protection conçues pour empêcher les outils de générer des images de célébrités. Les membres du groupe ont partagé des stratégies pour contourner ces protections en évitant les invites utilisant "Taylor Swift" et en utilisant à la place des mots-clés tels que "Taylor 'singer' Swift". Ils ont ensuite été en mesure de générer des images sexualisées en utilisant des mots-clés décrivant « des objets, des couleurs et des compositions qui ressemblent clairement à des actes sexuels », plutôt que d'essayer d'utiliser des termes sexuels, a rapporté 404 Media.

    Le PDG de Microsoft, Satya Nadella, a appelé l'industrie technologique à prendre des mesures après la diffusion de ces images explicites. « Oui, nous devons agir », a déclaré Nadella en réponse à une question sur les images truquées « alarmantes et terribles » de Swift.

    « Je dirais deux choses. D'une part, je reviens à la question de savoir quelle est notre responsabilité, et d'autre part, les garde-fous que nous devons mettre en place autour de la technologie pour que les contenus produits soient plus sûrs. Il s'agit de tous les garde-fous que nous devons mettre en place autour de la technologie pour que les contenus produits soient plus sûrs, et il y a beaucoup de choses à faire et à ne pas faire dans ce domaine », a-t-il déclaré.

    « Mais il s'agit d'une convergence mondiale et sociétale sur certaines normes, surtout lorsque la loi, les forces de l'ordre et les plates-formes technologiques peuvent s'unir », a-t-il poursuivi. « Je pense que nous pouvons gouverner beaucoup plus que nous ne le pensons ».

    « Je pense que nous avons tous intérêt à ce que le monde en ligne soit un monde sûr. Je pense donc que personne ne voudrait d'un monde en ligne qui n'est pas du tout sûr pour les créateurs de contenu et les consommateurs de contenu. C'est pourquoi je pense qu'il est de notre devoir d'agir rapidement dans ce domaine ».


    Deepfake et politique : un expert en IA « complètement terrifié » par les élections américaines de 2024

    Les images et vidéos manipulées entourant les élections ne sont pas nouvelles, mais 2024 sera la première élection présidentielle américaine au cours de laquelle des outils d'IA sophistiqués capables de produire des contrefaçons convaincantes en quelques secondes ne seront qu'à quelques clics.

    Les images, vidéos et clips audio fabriqués, connus sous le nom de deepfakes, ont commencé à se frayer un chemin dans les publicités expérimentales de la campagne présidentielle. Des versions plus sinistres pourraient facilement se propager sans étiquette sur les réseaux sociaux et tromper les gens quelques jours avant une élection, a déclaré Oren Etzioni, expert en intelligence artificielle et professeur émérite à l'Université de Washington.

    « Je m'attends à un tsunami de désinformation », a-t-il déclaré. « Je ne peux pas le prouver. J'espère avoir tort. Mais les ingrédients sont là et je suis complètement terrifié ».

    « On pourrait voir un candidat politique comme le président Biden être transporté d’urgence à l’hôpital », a-t-il déclaré. « On pourrait voir un candidat dire des choses qu’il n’avait jamais dites. On pourrait assister à une ruée sur les banques. On pouvait voir des bombardements et des violences qui n’ont jamais eu lieu ».

    Les contrefaçons de haute technologie ont déjà affecté les élections dans le monde entier, a déclaré Larry Norden, directeur principal des élections et du programme gouvernemental au Brennan Center for Justice. Quelques jours seulement avant les récents élections en Slovaquie, des enregistrements audio générés par l’IA ont usurpé l’identité d’un candidat libéral discutant de projets visant à augmenter les prix de la bière et à truquer les élections. Les vérificateurs de faits se sont efforcés de les identifier comme étant faux, mais ils ont malgré tout été partagés comme étant réels sur les réseaux sociaux.

    Ces outils pourraient également être utilisés pour cibler des communautés spécifiques et affiner les messages trompeurs sur le vote. Cela pourrait ressembler à des messages texte persuasifs, à de fausses annonces sur les processus de vote partagées dans différentes langues sur WhatsApp, ou à de faux sites Web simulés pour ressembler à ceux officiels du gouvernement de votre région, ont déclaré les experts.

    Face à un contenu conçu pour paraître réel, « tout ce que nous avons été programmés pour faire au cours de l'évolution va entrer en jeu pour nous faire croire à la fabrication plutôt qu'à la réalité réelle », a déclaré Kathleen Hall Jamieson, spécialiste de la désinformation et directeur du Annenberg Public Policy Center de l'Université de Pennsylvanie.

    Les Républicains et les Démocrates du Congrès et de la Commission électorale fédérale étudient des mesures pour réglementer la technologie, mais ils n’ont finalisé aucune règle ou législation. Cela laisse aux États le soin d’adopter les seules restrictions jusqu’à présent sur les deepfakes politiques de l’IA.

    Une poignée d’États ont adopté des lois exigeant que les deepfakes soient étiquetés ou interdisant ceux qui dénaturent les candidats. Certaines sociétés de médias sociaux, notamment YouTube et Meta, qui possèdent Facebook et Instagram, ont introduit des politiques d'étiquetage de l'IA. Reste à voir s’ils seront capables d’arrêter systématiquement les contrevenants.

    Conclusion

    Les autorités du monde entier sont de plus en plus préoccupées par la sophistication de la technologie du deepfake et les utilisations malveillantes qu’elle peut avoir. Le deepfake est une technique qui utilise l’intelligence artificielle pour créer des images, des vidéos ou des sons qui semblent réels mais qui sont en fait falsifiés. Le terme vient de la combinaison des mots anglais “deep learning” (apprentissage profond) et “fake” (faux).

    Le deepfake peut être utilisé à des fins ludiques, artistiques ou éducatives, mais aussi à des fins malhonnêtes, comme le chantage, la manipulation, la diffamation ou la désinformation. Le deepfake peut également porter atteinte à la vie privée, à la sécurité et à la réputation des personnes représentées, ainsi qu’à la confiance du public dans les sources d’information.

    Sources : RTHK, The Standard

    Et vous ?

    Que pensez-vous de l’utilisation du deepfake dans le cadre d’escroqueries financières ?
    Quelles sont les mesures que les entreprises et les individus devraient prendre pour se protéger contre le deepfake ?
    Quels sont les avantages et les inconvénients du deepfake pour la société ?
    Comment le deepfake affecte-t-il la crédibilité et la confiance dans les sources d’information ?
    Quels sont les défis (juridiques, éthique, etc.) que pose le deepfake ?

    Voir aussi :

    Un sénateur propose un projet de loi prohibant l'utilisation de la technologie deepfake si elle venait à servir des buts frauduleux
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre éclairé
    Homme Profil pro
    Urbaniste
    Inscrit en
    Août 2023
    Messages
    386
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Autre

    Informations professionnelles :
    Activité : Urbaniste

    Informations forums :
    Inscription : Août 2023
    Messages : 386
    Points : 794
    Points
    794
    Par défaut
    Les pirates semblent avoir pu accéder aux mail, aux wechats, à l'outil de visio.
    On se demande presque pourquoi ils se sont enquiquinés à générer cette fausse visio
    vu l'étendu de l'intrusion.

    https://www.thestandard.com.hk/breaking-news/section/4/213122/HK's-first-deepfake-video-conference-scam-involving-HK$200-million
    Officers said the scammer even utilized WhatsApp, email, and "one-to-one" video conferences to communicate with Hong Kong staff members to add credibility to the scams.
    Il est affirmé,
    It was discovered that the speech of the "CFO" was only a virtual video generated by the scammer through deepfake.
    Sur la base de quoi ? On ne sait pas.

    et si c'était l'équipe dirigeante qui avait montée cela, en se faisant passé pour du deepfake, pour détourner l'argent ?

  3. #3
    Membre éclairé
    Homme Profil pro
    Développeur .NET
    Inscrit en
    Septembre 2014
    Messages
    215
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Paris (Île de France)

    Informations professionnelles :
    Activité : Développeur .NET
    Secteur : High Tech - Multimédia et Internet

    Informations forums :
    Inscription : Septembre 2014
    Messages : 215
    Points : 736
    Points
    736
    Par défaut
    ça parait gros...
    Depuis quand il faut qu'une seule personne pour virer 25 millions d'euros vers des comptes à l'étranger ?

  4. #4
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 063
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 063
    Points : 17 517
    Points
    17 517
    Par défaut Le géant multinational Arup révèle avoir été victime d'une escroquerie "deepfake" de 25 millions de dollars
    Le géant multinational Arup révèle avoir été victime d'une escroquerie "deepfake" de 25 millions de dollars, un employé du département finance a été dupé en participant à un appel vidéo deepfake

    Une multinationale britannique de conception et d'ingénierie, à l'origine de bâtiments mondialement connus tels que l'Opéra de Sydney, a confirmé avoir été la cible d'une escroquerie de type « deepfake » qui a conduit l'un de ses employés de Hong Kong à verser 25 millions de dollars à des fraudeurs.

    Les deepfakes sont des médias synthétiques qui ont été manipulés numériquement pour remplacer de manière convaincante l'image d'une personne par celle d'une autre. Inventé en 2017 par un utilisateur de Reddit, le terme a été élargi pour inclure d'autres créations numériques telles que des images réalistes de sujets humains qui n'existent pas dans la vie réelle. Si la création de faux contenus n'est pas nouvelle, les deepfakes exploitent des outils et des techniques d'apprentissage automatique et d'intelligence artificielle, notamment des algorithmes de reconnaissance faciale et des réseaux neuronaux artificiels tels que les autoencodeurs variationnels (VAE) et les réseaux antagonistes génératifs (GAN). De son côté, le domaine de la criminalistique des images développe des techniques pour détecter les images manipulées.


    Un porte-parole de la société Arup, basée à Londres, a déclaré qu'elle avait informé la police de Hong Kong en janvier de l'incident de fraude et a confirmé que de fausses voix et de fausses images avaient été utilisées.

    « Malheureusement, nous ne pouvons pas entrer dans les détails à ce stade, car l'incident fait toujours l'objet d'une enquête. Toutefois, nous pouvons confirmer que des voix et des images truquées ont été utilisées », a déclaré le porte-parole dans un communiqué envoyé par courrier électronique.

    « Notre stabilité financière et nos activités commerciales n'ont pas été affectées et aucun de nos systèmes internes n'a été compromis », a-t-il ajouté.

    La police de Hong Kong a déclaré en février qu'au cours de cette escroquerie complexe, l'employé, qui travaillait dans le département finance, avait été amené à participer à un appel vidéo avec des personnes qu'il croyait être le directeur financier et d'autres membres du personnel, mais qui s'avéraient toutes être des recréations deepfake. Les autorités n'ont pas donné le nom de l'entreprise ou des parties impliquées à l'époque.

    Selon la police, le salarié a d'abord soupçonné qu'il avait reçu un courriel d'hameçonnage provenant du bureau britannique de l'entreprise, car il spécifiait la nécessité d'effectuer une transaction secrète. Cependant, l'employé a mis ses doutes de côté après l'appel vidéo, car d'autres personnes présentes ressemblaient à des collègues qu'il avait reconnus.

    Il a ensuite accepté d'envoyer un total de 200 millions de dollars de Hong Kong, soit environ 25,6 millions de dollars. Le montant a été envoyé en 15 transactions, a rapporté la chaîne publique de Hong Kong RTHK, citant la police.

    Le terme « Deepfake » désigne normalement les fausses vidéos créées à l'aide de l'intelligence artificielle (IA) et qui semblent extrêmement réalistes.

    Au début de l'année, des images pornographiques de la pop star Taylor Swift générées par l'IA se sont répandues sur les réseaux sociaux, soulignant le potentiel de nuisance de la technologie de l'IA.

    Source : Arup

    Et vous ?

    Quel est votre avis sur le sujet ?

    Voir aussi :

    Deepfake : un employé paye 25 millions de dollars à des escrocs après une réunion vidéo avec son directeur financier généré par IA, les anciennes conférences vidéos de ce directeur soupçonnées d'en être à l'origine

    72 % des consommateurs s'inquiètent quotidiennement d'être trompés par des "deepfakes", et les gens surestiment également leur capacité à repérer les "deepfakes", selon un rapport de Jumio
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

  5. #5
    Chroniqueur Actualités
    Avatar de Anthony
    Homme Profil pro
    Rédacteur technique
    Inscrit en
    Novembre 2022
    Messages
    1 063
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : France, Gironde (Aquitaine)

    Informations professionnelles :
    Activité : Rédacteur technique

    Informations forums :
    Inscription : Novembre 2022
    Messages : 1 063
    Points : 17 517
    Points
    17 517
    Par défaut Les deepfakes sont désormais le deuxième incident de sécurité le plus fréquent, d'après ISMS.online
    Les deepfakes sont désormais le deuxième incident de sécurité le plus fréquent, les attaquants utilisent la technologie d'IA pour inciter les victimes à effectuer des transferts de fonds, d'après ISMS.online

    L'inquiétude autour des deepfakes grandit depuis un certain temps et une nouvelle étude publiée par ISMS.online montre que les deepfakes se classent désormais au deuxième rang des incidents de sécurité de l'information les plus courants pour les entreprises britanniques et que plus d'un tiers des organisations en ont fait l'expérience.

    Le rapport, basé sur une enquête menée auprès de plus de 500 professionnels de la sécurité de l'information au Royaume-Uni, montre que près de 32 % des entreprises britanniques ont été confrontées à un incident de sécurité de type « deepfake » au cours des 12 derniers mois.

    Nom : deepfake isms.online.PNG
Affichages : 4581
Taille : 151,2 Ko

    Le scénario le plus probable aujourd'hui pour les acteurs de la menace qui utilisent les deepfakes est celui des tentatives de compromission par courrier électronique des entreprises (BEC). Les attaquants utilisent la technologie de clonage vocal et vidéo alimentée par l'IA pour inciter les destinataires à effectuer des transferts de fonds. Il existe également des cas d'utilisation possibles pour le vol d'informations ou de références, l'atteinte à la réputation ou même pour essayer de contourner l'authentification par reconnaissance faciale et vocale.

    Parmi les autres résultats, 41 % déclarent que les données des partenaires ont été les plus compromises au cours de l'année écoulée, ce qui souligne les risques persistants posés par les fournisseurs.

    Nom : deepfake isms.online 2.PNG
Affichages : 659
Taille : 98,0 Ko

    En outre, 79 % des entreprises ont été touchées par un incident de sécurité de l'information causé par un fournisseur tiers ou un partenaire de la chaîne d'approvisionnement, soit une augmentation de 22 % par rapport à l'étude de 2023.

    Pour lutter contre ces attaques de plus en plus avancées, il est essentiel d'améliorer la formation et la sensibilisation, tant au niveau de la chaîne d'approvisionnement qu'au niveau interne. Près de la moitié des personnes interrogées (47 %) mettent davantage l'accent sur les initiatives de formation et de sensibilisation des employés. En outre, 38 % d'entre eux affirment que les crédits alloués à la sécurisation de la chaîne d'approvisionnement et des relations avec les fournisseurs tiers devraient augmenter de 25 % au cours de l'année à venir. Bien que l'IA soit considérée comme une partie du problème, 72 % des personnes interrogées reconnaissent que l'IA et l'apprentissage automatique contribueront à améliorer les programmes de sécurité des données.


    Luke Dash, PDG de ISMS.online, déclare : « Il est très inquiétant de voir le nombre d'organisations menacées par les risques liés aux deepfakes et aux fournisseurs tiers. Pour faire face à ces menaces croissantes et plus sophistiquées, les organisations doivent continuer à construire des fondations solides et efficaces en matière de sécurité de l'information. Toutefois, il est encourageant de voir les entreprises investir dans la sécurisation de leurs chaînes d'approvisionnement et dans la sensibilisation et la formation de leurs employés.

    À propos d'ISMS.online

    ISMS.online travaille avec des entreprises du monde entier, les aidant à gérer leur sécurité de l'information afin qu'elles puissent se développer en toute confiance. La sécurité de l'information est l'un des secteurs à la croissance la plus rapide et elle évolue constamment. ISMS.online est fier de permettre à des milliers de clients dans le monde entier d'atteindre une conformité simple et durable des données qui évolue avec leur entreprise. Depuis son lancement en 2005, ISMS.online a élargi son équipe au niveau mondial, établi des bureaux satellites en Europe et dans la région APAC, et mis en place des centres de données au Royaume-Uni et dans l'Union européenne, aux États-Unis et en Australie. Sa croissance rapide, soutenue par un investissement important de la part d'ECI Partners, permet à ISMS.online d'aider chaque jour encore plus d'organisations dans leur gestion de la sécurité, de la confidentialité et de la conformité.

    Source : "The State of Information Security Report 2024" (ISMS.online)

    Et vous ?

    Quel est votre avis sur le sujet ?
    Trouvez-vous les conclusions de cette étude d'ISMS.online crédibles ou pertinentes ?

    Voir aussi :

    Deepfake : un employé paye 25 millions de dollars à des escrocs après une réunion vidéo avec son directeur financier généré par IA, les anciennes conférences vidéos de ce directeur soupçonnées d'en être à l'origine

    72 % des consommateurs s'inquiètent quotidiennement d'être trompés par des "deepfakes", et les gens surestiment également leur capacité à repérer les "deepfakes", selon un rapport de Jumio
    Contribuez au club : corrections, suggestions, critiques, ... Contactez le service news et Rédigez des actualités

Discussions similaires

  1. Réponses: 0
    Dernier message: 14/02/2022, 12h18
  2. Réponses: 1
    Dernier message: 30/04/2020, 18h43
  3. Réponses: 2
    Dernier message: 18/03/2019, 10h02
  4. Réponses: 0
    Dernier message: 17/08/2012, 11h34
  5. Réponses: 8
    Dernier message: 03/10/2009, 21h36

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo