IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)
Navigation

Inscrivez-vous gratuitement
pour pouvoir participer, suivre les réponses en temps réel, voter pour les messages, poser vos propres questions et recevoir la newsletter

  1. #1
    Chroniqueur Actualités

    Homme Profil pro
    Administrateur de base de données
    Inscrit en
    Mars 2013
    Messages
    9 365
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Canada

    Informations professionnelles :
    Activité : Administrateur de base de données

    Informations forums :
    Inscription : Mars 2013
    Messages : 9 365
    Par défaut Shadow AI : 50 % des salariés utilisent ChatGPT et d’autres outils non autorisés au dépend de la sécurité
    Après le Shadow IT vient le Shadow AI : 50 % des salariés utilisent ChatGPT et d’autres outils d'IA génératives non autorisés
    au dépend de la sécurité des données, selon un rapport

    Rapport après rapport, un constat s’impose : l’usage massif mais clandestin de l’IA générative en entreprise n’est plus un phénomène isolé, mais un mode de fonctionnement devenu quasi-normatif. Selon The AI Tightrope de Harmonic Security, plus de 50 % des employés utilisent des outils d’IA générative sans approbation, créant une forme de « Shadow AI » (en référence au « Shadow IT ») aussi invisible que potentiellement dangereuse. Cette utilisation clandestine contourne les politiques internes, échappe à toute surveillance et implique souvent le transfert de données sensibles via des comptes Gmail personnels, hors de tout cadre de conformité.

    L’avènement de ChatGPT, Copilot, Claude et autres Gemini a démocratisé l’accès à des intelligences artificielles puissantes. Résultat : des millions de salariés ont désormais la possibilité de générer, résumer, traduire ou reformuler des contenus professionnels en quelques secondes. L’adoption de l’IA générative en entreprise a donc explosé au premier trimestre 2025, stimulée par les promesses de productivité et la pression concurrentielle.

    Cependant, une analyse de Harmonic Security portant sur plus de 176 000 requêtes et des milliers de fichiers envoyés par un échantillon de 8 000 utilisateurs révèle des risques en pleine évolution.

    Bien que l’exposition globale de données sensibles ait légèrement diminué, la nature des données exposées a changé vers des catégories à plus fort impact, ce qui exige des contrôles plus poussés que la simple visibilité.

    Mais selon Harmonic Security, 50 % des employés utilisent ces outils sans l’aval de leur entreprise, voire à travers des moyens contournés (comptes Gmail personnels, proxies, plateformes gratuites). Cette pratique est désormais désignée comme « Shadow AI », par analogie avec le « Shadow IT » qui désignait autrefois les outils logiciels installés sans validation du service informatique.

    Voici les principaux constats dressés par le rapport :
    • L'omniprésence du Shadow AI :
      • en moyenne, les entreprises utilisent 254 applications IA, souvent non gérées.
      • 45,4 % des données sensibles ont été soumises depuis des comptes personnels, principalement Gmail (57,9 %), ce qui montre que la majorité des usages échappe à l’IT.
    • Fausse impression de sécurité : les requêtes sensibles sont passées de 8,5 % à 6,7 %… Mais cette baisse masque une redistribution des risques bien plus préoccupante.
    • ChatGPT écrase la concurrence : il concentre 79,1 % de toutes les données sensibles envoyées. Et 21 % de ces données l’ont été via la version gratuite, hors de tout cadre de gouvernance.
    • Percée des apps chinoises : 7 % des utilisateurs ont accédé à des IA chinoises comme DeepSeek, Manus, Ernie Bot, Qwen Chat, Baidu Chat… Ces outils posent des problèmes de conservation et de réutilisation des données.
    • Glissement vers des données critiques :
      • Les données juridiques et financières ont doublé (30,8 %),
      • Le code sensible a presque doublé (10,1 %),
      • Les données clients (27,8 %) et employés (14,3 %) ont reculé.

    En clair, l’IA s’infiltre désormais au cœur des fonctions à forte valeur ajoutée, ce qui accroît massivement le risque de fuites à fort impact.

    Un risque souvent sous-estimé par les utilisateurs

    Ces usages ne sont pas nécessairement malveillants. Dans la majorité des cas, les employés agissent par souci d’efficacité, pour gagner du temps dans la rédaction de mails, le traitement de documents, la génération de contenu ou le support client. Mais ce pragmatisme du terrain se heurte à une réalité plus inquiétante : 69 % des utilisateurs n’ont reçu aucune formation sur les risques liés à l’IA.

    Ignorant les implications réglementaires (RGPD, secret professionnel, confidentialité), beaucoup pensent – à tort – qu’il suffit de ne pas donner de noms pour éviter les problèmes.

    En vérité, même un simple contenu texte contenant des instructions internes, des éléments contractuels ou des données métiers peut constituer un actif sensible, notamment lorsqu’il est soumis à une IA dont les politiques de conservation ou de réutilisation ne sont pas transparentes.

    La ruée vers l’IA générative

    Le premier trimestre 2025 a marqué l’entrée de l’IA générative (GenAI) au cœur des opérations d’entreprise. Cette adoption rapide mêle opportunités colossales et risques souvent sous-estimés.
    • Plus de 75 % des entreprises utilisent désormais l’IA, selon McKinsey.
    • Le potentiel de productivité est estimé à 4 400 milliards $.
    • Le marché devrait croître de près de 40 % en 2025.

    Selon une enquête de McKinsey, 74 % des PDG admettent qu’ils pourraient perdre leur poste dans les deux ans s’ils ne livrent pas de résultats concrets grâce à l’IA

    Tobi Lütke, PDG de Shopify, a même imposé l’IA comme norme interne : Les équipes doivent prouver qu’une tâche ne peut pas être automatisée avant d’envisager un recrutement. L’IA est considérée comme un multiplicateur de productivité x100.

    Mais cette pression peut inciter à prendre des raccourcis risqués si les outils officiels sont jugés insuffisants.

    L’explosion de la Shadow AI

    Même les entreprises qui tentent de restreindre l’usage de l’IA rencontrent un obstacle majeur : la Shadow AI.
    • 68 % des utilisateurs de ChatGPT le cachent à leur hiérarchie
    • Près de la moitié refuserait de cesser même si l’outil était interdit
    • Les employés trouvent l’IA trop attrayante pour y renoncer, même sans licence approuvée

    Il faut dire que ce n'est pas vraiment une surprise. Une enquête précédente de Salesforce parvenait aux mêmes conclusions : selon elle, de nombreux utilisateurs d'IA générative sur le lieu de travail exploitent la technologie sans formation, conseil ou approbation de leur employeur. Dans son rapport Generative AI Snapshot Research Series, The Promises and Pitfalls of AI at Work, Salesforce a indiqué que 55 % des travailleurs ont utilisé des outils d'IA générative non approuvés au travail, et 40 % des utilisateurs d'IA générative sur le lieu de travail ont utilisé des outils interdits au travail, de nombreux travailleurs reconnaissant encore que l'utilisation éthique et sûre de l'IA générative passe par l'adoption de programmes approuvés par l'entreprise.

    L'enquête menée par Salesforce auprès de plus de 14 000 travailleurs issus de diverses entreprises situées en Amérique du Nord, en Europe, en Amérique latine et au Moyen-Orient a révélé qu'en dépit des promesses que l'IA générative offre aux travailleurs et aux employeurs, l'absence de politiques clairement définies et de mécanismes d'application conçus pour contrôler son utilisation peut exposer leur entreprise à des risques opérationnels, juridiques et réglementaires.

    Nom : generative.png
Affichages : 4884
Taille : 361,9 Ko

    Bring Your Own AI : l’ombre d’une adoption sauvage

    ChatGPT domine les usages, mais le tableau est bien plus éclaté :
    • Les entreprises utilisent en moyenne 254 applications IA différentes, ou apps avec IA intégrée.
    • Cela reflète une phase de tests massifs mais aussi un débordement incontrôlé des solutions SaaS.
    • 45,4 % des requêtes contenant des données sensibles proviennent de comptes personnels (et non professionnels). Parmi eux, Gmail représente 57,9 % des adresses utilisées.

    Résultat : la commodité prend le pas sur la sécurité et la gouvernance d’entreprise.

    Fait inattendu : les fichiers image représentent 68,3 % des fichiers uploadés vers ChatGPT.

    Explication probable : des employés ont créé des portraits de collègues à la sauce Ghibli.

    Les autres types de fichiers fréquemment envoyés :
    • PDF : 13,4 %
    • DOCX : 5,46 %
    • XLSX : 4,90 %
    • CSV : 3,17 %
    • PPTX : 1,45 %

    Côté vidéo : très faible utilisation
    • MP4 : 0,18 %
    • QuickTime (.mov) : 0,01 %

    Nom : distribution.png
Affichages : 435
Taille : 82,2 Ko

    L’essor des applications IA chinoises

    En 2025, le paysage de l’IA en Chine a connu une accélération fulgurante, marquée par l’arrivée de plusieurs chatbots avancés en compétition directe avec leurs équivalents occidentaux.

    Les principales plateformes IA chinoises dans le rapport sont :
    • Baidu Chat et Ernie Bot (Baidu) : amélioration continue de la compréhension du langage et intégration croissante en entreprise.
    • DeepSeek : apprécié pour ses modèles open-source puissants, qui séduisent chercheurs et développeurs.
    • Kimi Moonshot : mis en lumière pour sa capacité à traiter de longs contextes, idéal pour documents complexes et raisonnement approfondi.
    • Manus (MiniMax) : se concentre sur la conversation polyvalente.
    • Qwen Chat (Alibaba) : conçu pour la productivité et le travail intellectuel.

    Ensemble, ces outils témoignent d’un maturité rapide de l’écosystème IA chinois, qui rivalise désormais avec les géants occidentaux dans les usages pro et grand public.

    Usage réel en entreprise

    7 % des utilisateurs de l’échantillon étudié ont eu recours à ces plateformes chinoises. Cela représente 565 utilisateurs sur 8 000.

    Inquiétudes majeures pour la sécurité

    Les responsables cybersécurité s’inquiètent déjà des fuites de données sensibles vers ces outils. En Chine, l’État peut demander à tout moment l’accès aux données collectées. Toute donnée partagée avec DeepSeek doit être considérée comme potentiellement récupérable par le Parti communiste chinois.

    La mutation des fuites de données sensibles

    En comparant les deux périodes, on observe une légère baisse du volume global de données sensibles exposées, mais surtout un bouleversement dans la nature des données compromises, ce qui modifie profondément le profil de risque des entreprises.

    Tendance globale : Le taux de requêtes sensibles est passé de 8,5 % à 6,7 %. Cette baisse ne doit pas être perçue comme rassurante : Elle pourrait refléter une meilleure sensibilisation… ou simplement des limites dans la détection.

    Type de donnée Premier trimestre 2024 Premier trimestre 2025 Évolution
    Juridique & Finance 14,9 % 30,8 % + 15,9 points
    Code sensible 5,6 % 10,1 % + 4,5 points
    Données clients 45,8 % 27,8 % - 18 points
    Données employés 26,8 % 14,3 % -12,5 points
    Données personnelles - 14,8 % explicitement mesuré au premier trimestre 2025
    Sécurité 6,9 % 2,1 % - 4,8 points

    Nom : donnees.png
Affichages : 422
Taille : 30,1 Ko

    Où vont les données sensibles ?

    L’analyse montre une concentration massive des fuites de données vers ChatGPT, en particulier vers sa version gratuite, échappant à tout cadre de gouvernance sécurisé.

    Données sensibles envoyées par plateforme :
    • ChatGPT (OpenAI) : 79,1 % des données sensibles, dont 21 % (2 479 requêtes) ont transité par la version gratuite, non encadrée
    • Claude (Anthropic)
    • Gemini (Google)
    • Copilot (Microsoft)
    • Perplexity AI

    Nom : pourcentage.png
Affichages : 374
Taille : 49,9 Ko

    Répartition par type de données sensibles

    Les données les plus exposées aux IA sont classées en six catégories :
    • Données clients
    • Données employés
    • Données juridiques et financières
    • Données de sécurité
    • Code sensible
    • Clés d’accès ou de configuration (source code + access keys)

    La quasi-totalité de ces types de données sont principalement exposés via ChatGPT, ce qui renforce son rôle central dans les risques liés à l’IA en entreprise.

    Vers un point de rupture ?

    La généralisation du Shadow AI n’est plus marginale : elle est devenue structurelle.

    « C’est comme si chaque collaborateur disposait d’un assistant personnel externe, non audité, connecté à des serveurs étrangers, et sans aucun engagement de confidentialité réel », résume un expert en cybersécurité interrogé par Harmonic.

    Les DSI, CISO et responsables de la conformité se retrouvent face à un dilemme :
    • Bloquer l’accès à ces outils, au risque de générer de la frustration, de l’inefficacité et d’encourager des pratiques encore plus cachées.
    • Encadrer l’usage, en créant une zone d’expérimentation surveillée, mais cela suppose d’investir dans des outils, des formations et une gouvernance souple.

    Quelles stratégies pour reprendre le contrôle ?

    Le rapport propose plusieurs pistes pour concilier innovation et sécurité :

    1. Visibilité proactive

    Mettre en place des outils de détection des interactions avec les plateformes d’IA, en analysant les flux réseau, les connexions SaaS et les comportements utilisateurs.

    2. Formation ciblée

    Intégrer des modules pédagogiques sur les bonnes pratiques IA dans les parcours d’onboarding et les plans de formation annuels. Exemple : quels types de données ne jamais transmettre à une IA externe ? Quelles alternatives validées utiliser ?

    3. Catalogue d’outils d’IA approuvés

    Établir une “marketplace” interne regroupant les IA validées, avec leurs usages autorisés, leurs limites et les conditions de traitement des données.

    4. Politiques dynamiques

    Plutôt que d’interdire en bloc, adopter une approche granulaire : autoriser certains usages (réécriture, traduction) mais interdire l’upload de fichiers RH, juridiques ou commerciaux.

    Conclusion : bâtir une culture de l’IA maîtrisée

    La frontière entre usage personnel et professionnel s’estompe. Les collaborateurs n’attendent plus l’approbation pour intégrer l’IA dans leur quotidien. Ils veulent de la vitesse, de la simplicité, de l’autonomie.

    Mais cette autonomie doit être canalisée. L’IA ne doit pas devenir un angle mort de la stratégie numérique, ni un cheval de Troie pour les fuites d’information.

    Le défi de demain ne sera pas de contrôler l’IA, mais de gouverner son usage. Avec des outils de visibilité, des lignes directrices claires et une pédagogie adaptée, l’entreprise peut transformer cette menace en levier de compétitivité durable.

    Source : rapport Harmonic Security

    Et vous ?

    Vous arrive-t-il également d'utiliser l'IA au travail ? De quel chatbot vous servez-vous ? Est-il autorisé ou non ? Y a-t-il des limites dans les échanges que vous pouvez avoir avec lui ? Si oui, lesquelles (type de documents partagés, type d'information renseignée, etc.) ?

    Peut-on encore protéger les données sensibles si les employés les soumettent volontairement à des IA tierces hors de tout contrôle ?

    L’usage d’IA développées en Chine ou en Russie dans des contextes professionnels occidentaux doit-il être interdit par défaut ? Pourquoi ?

    Est-il acceptable qu’un salarié transmette des éléments professionnels à un chatbot IA sachant que les prompts peuvent être conservés ?

    L’interdiction totale des outils d’IA générative non validés freine-t-elle l’innovation ou protège-t-elle réellement l’entreprise ?

    Comment définir une “bonne pratique IA” quand les outils évoluent plus vite que les chartes internes ?

    Est-il plus dangereux de bloquer l’IA (et créer une frustration) ou de la laisser se répandre sans encadrement ?

    Voir aussi :

    Que se passe-t-il lorsque des employés utilisent un logiciel qui n'a pas été approuvé ? Quelques conseils face aux enjeux du Shadow IT

    La moitié des employés utilisent la GenAI au travail pour des activités complexes alors que seulement 41 % des entreprises évaluent activement la GenAI ou en ont fait une priorité, selon Betterworks

    Plus de deux tiers des salariés soutiennent l'IA générative pour améliorer le travail. La technologie leur permettrait d'économiser cinq heures par semaine en moyenne, selon une enquête de Salesforce
    Contribuez au club : Corrections, suggestions, critiques, ... : Contactez le service news et Rédigez des actualités

  2. #2
    Membre éprouvé Avatar de kain_tn
    Homme Profil pro
    Inscrit en
    Mars 2005
    Messages
    1 776
    Détails du profil
    Informations personnelles :
    Sexe : Homme
    Localisation : Suisse

    Informations forums :
    Inscription : Mars 2005
    Messages : 1 776
    Par défaut
    Citation Envoyé par Stéphane le calme Voir le message
    Vous arrive-t-il également d'utiliser l'IA au travail ? De quel chatbot vous servez-vous ? Est-il autorisé ou non ? Y a-t-il des limites dans les échanges que vous pouvez avoir avec lui ? Si oui, lesquelles (type de documents partagés, type d'information renseignée, etc.) ?
    Non. Je ne me suis pas foulé à me former pour utiliser un outil défaillant.

    Citation Envoyé par Stéphane le calme Voir le message
    Peut-on encore protéger les données sensibles si les employés les soumettent volontairement à des IA tierces hors de tout contrôle ?
    Clairement pas. C'est un comportement à risque, et il devrait être passible de sanctions au sein d'une entreprise, à partir du moment où il est fait sans le consentement de la direction.

    Citation Envoyé par Stéphane le calme Voir le message
    L’usage d’IA développées en Chine ou en Russie dans des contextes professionnels occidentaux doit-il être interdit par défaut ? Pourquoi ?
    Pourquoi? En quoi sont-elles moins sûres qu'une IA américaine? Sommes-nous américains? Trump et Musk sont-ils au pouvoir chez nous?

    Citation Envoyé par Stéphane le calme Voir le message
    Est-il acceptable qu’un salarié transmette des éléments professionnels à un chatbot IA sachant que les prompts peuvent être conservés ?
    Uniquement si la direction de l'entreprise en a décidé ainsi.

    Citation Envoyé par Stéphane le calme Voir le message
    L’interdiction totale des outils d’IA générative non validés freine-t-elle l’innovation ou protège-t-elle réellement l’entreprise ?
    L'innovation de qui? À qui appartiennent ces outils? Qui se fait de l'argent dessus? Comment peut-on parler d'innovation, lorsque le code généré est aussi médiocre une fois que l'on sort des sentiers battus (comprendre une fois qu'on demande au bot d'innover réellement, justement)?

    Citation Envoyé par Stéphane le calme Voir le message
    Comment définir une “bonne pratique IA” quand les outils évoluent plus vite que les chartes internes ?
    Aucune idée. C'est un peu comme le fait d'autoriser les smartphones en entreprise (donc des appareils photo et caméras) mais de rester très rigide sur certaines opérations de copier/coller, par exemple. Ces chartes internes sont déjà dépassées depuis belle lurette. La seule chose qui pourrait fonctionner serait de former les employés et de récompenser au mérite.

    Citation Envoyé par Stéphane le calme Voir le message
    Est-il plus dangereux de bloquer l’IA (et créer une frustration) ou de la laisser se répandre sans encadrement ?
    Une frustration... Carrément...
    Si les gens sont frustrés de ne pas pouvoir utiliser d'IA, peut-être qu'ils devraient juste aller chercher un autre boulot... Ou arrêter de travailler.

Discussions similaires

  1. 40 % des adolescents utilisent ChatGPT, selon une enquête de Piper Sandler
    Par Anthony dans le forum Intelligence artificielle
    Réponses: 0
    Dernier message: 12/10/2023, 18h05
  2. Réponses: 0
    Dernier message: 04/08/2023, 21h10
  3. Réponses: 2
    Dernier message: 24/02/2023, 09h24
  4. Réponses: 5
    Dernier message: 14/02/2023, 08h26
  5. VBA EXCEL Montrer des ligne utilisé et masquer les ligne non utilisé
    Par Ryadh-Belhadi dans le forum Macros et VBA Excel
    Réponses: 3
    Dernier message: 28/12/2017, 16h30

Partager

Partager
  • Envoyer la discussion sur Viadeo
  • Envoyer la discussion sur Twitter
  • Envoyer la discussion sur Google
  • Envoyer la discussion sur Facebook
  • Envoyer la discussion sur Digg
  • Envoyer la discussion sur Delicious
  • Envoyer la discussion sur MySpace
  • Envoyer la discussion sur Yahoo