68 % des décideurs informatiques s'inquiètent de la montée en puissance des deepfakes, et 59 % pensent que l'IA augmente le nombre de cyberattaques, d'après une étude d'Integrity360

Une nouvelle enquête menée auprès de 205 décideurs en matière de sécurité informatique met en évidence les préoccupations croissantes concernant l'utilisation de l'IA, et des deepfakes en particulier, puisque 68 % des personnes interrogées s'inquiètent de l'utilisation de deepfakes par les cybercriminels pour cibler leurs organisations.

L'étude d'Integrity360 révèle que 59 % des personnes interrogées pensent également que l'IA augmente le nombre de cyberattaques, ce qui correspond à l'évolution des attaques observée au cours de l'année écoulée, l'"IA offensive" étant utilisée pour des tâches telles que la création de logiciels malveillants.

L'IA est également utilisée pour créer davantage de messages d'hameçonnage dont le contenu imite fidèlement le langage, le ton et la conception des courriels légitimes.


Brian Martin, responsable du développement de produits, de l'innovation et de la stratégie chez Integrity360, déclare : "L'utilisation de l'IA pour les cyberattaques constitue déjà une menace pour les entreprises, mais la reconnaissance du potentiel futur et de l'impact qu'elle peut avoir n'est qu'un début. Nous avons déjà vu le potentiel de la technologie deepfake avec la vidéo de Volodymr Zelensky disant aux Ukrainiens de déposer leurs armes et diffusant de la désinformation. Ce n'est qu'un exemple des moyens néfastes dont elle peut être utilisée et les entreprises doivent être préparées à se défendre contre cette technologie et à discerner ce qui est réel et ce qui ne l'est pas, afin d'éviter d'être victimes d'une attaque".

Si l'on considère les fonctions spécifiques, l'enquête suggère que les DSI semblent comprendre le moins bien l'impact de l'IA sur la cybersécurité, 42 % d'entre eux n'étant pas d'accord avec l'idée que l'IA aura un impact sur la cybersécurité. Cela met en évidence une lacune potentielle dans les connaissances des cadres supérieurs, qui peut avoir des implications pour les stratégies de cybersécurité des organisations et l'importance des efforts de formation pour s'assurer qu'ils sont bien informés sur le rôle de l'IA.


Cependant, 73 % d'entre eux reconnaissent que l'IA devient un outil de plus en plus important pour les opérations de sécurité et la réponse aux incidents. Cela reflète la reconnaissance croissante par l'industrie du potentiel de l'IA à améliorer les pratiques de sécurité et la perception que l'IA peut être utilisée à la fois de manière défensive et offensive. 71 % pensent que l'IA améliore la rapidité et la précision de la réponse aux incidents, tandis que 67 % pensent que l'utilisation de l'IA améliore l'efficacité des opérations de cybersécurité.

"Alors que les technologies de l'IA continuent d'évoluer, leur intégration dans la cybersécurité suivra. Les organisations doivent rester proactives en adoptant l'IA tout en relevant les défis qu'elle présente, en veillant à ce que leurs défenses de cybersécurité suivent le rythme", ajoute M. Martin.

Source : Étude d'Integrity360

Et vous ?

Quel est votre avis sur le sujet ?

Que pensez-vous des résultats de cette étude d'Integrity360, sont-ils crédibles et pertinents, selon vous ?

Voir aussi

La NSA, le FBI et la CISA publient une fiche d'information sur la cybersécurité concernant les menaces liées aux Deepfake

TikTok diffuse une publicité deepfake IA de MrBeast vendant des iPhone 15 Pro pour 2 $, un deepfake IA de Tom Hanks a été utilisé pour vendre une assurance dentaire

Les humains ne peuvent détecter que 73 % des discours Deep Fake selon l'étude des chercheurs de l'Université de Londres

Le nombre de contenus deepfake en ligne augmente à un rythme annuel de 900 %, d'après le World Economic Forum