Après le Shadow IT vient le Shadow AI : 50 % des salariés utilisent ChatGPT et d’autres outils d'IA génératives non autorisés
au dépend de la sécurité des données, selon un rapport
Rapport après rapport, un constat s’impose : l’usage massif mais clandestin de l’IA générative en entreprise n’est plus un phénomène isolé, mais un mode de fonctionnement devenu quasi-normatif. Selon The AI Tightrope de Harmonic Security, plus de 50 % des employés utilisent des outils d’IA générative sans approbation, créant une forme de « Shadow AI » (en référence au « Shadow IT ») aussi invisible que potentiellement dangereuse. Cette utilisation clandestine contourne les politiques internes, échappe à toute surveillance et implique souvent le transfert de données sensibles via des comptes Gmail personnels, hors de tout cadre de conformité.
L’avènement de ChatGPT, Copilot, Claude et autres Gemini a démocratisé l’accès à des intelligences artificielles puissantes. Résultat : des millions de salariés ont désormais la possibilité de générer, résumer, traduire ou reformuler des contenus professionnels en quelques secondes. L’adoption de l’IA générative en entreprise a donc explosé au premier trimestre 2025, stimulée par les promesses de productivité et la pression concurrentielle.
Cependant, une analyse de Harmonic Security portant sur plus de 176 000 requêtes et des milliers de fichiers envoyés par un échantillon de 8 000 utilisateurs révèle des risques en pleine évolution.
Bien que l’exposition globale de données sensibles ait légèrement diminué, la nature des données exposées a changé vers des catégories à plus fort impact, ce qui exige des contrôles plus poussés que la simple visibilité.
Mais selon Harmonic Security, 50 % des employés utilisent ces outils sans l’aval de leur entreprise, voire à travers des moyens contournés (comptes Gmail personnels, proxies, plateformes gratuites). Cette pratique est désormais désignée comme « Shadow AI », par analogie avec le « Shadow IT » qui désignait autrefois les outils logiciels installés sans validation du service informatique.
Voici les principaux constats dressés par le rapport :
- L'omniprésence du Shadow AI :
- en moyenne, les entreprises utilisent 254 applications IA, souvent non gérées.
- 45,4 % des données sensibles ont été soumises depuis des comptes personnels, principalement Gmail (57,9 %), ce qui montre que la majorité des usages échappe à l’IT.
- Fausse impression de sécurité : les requêtes sensibles sont passées de 8,5 % à 6,7 %… Mais cette baisse masque une redistribution des risques bien plus préoccupante.
- ChatGPT écrase la concurrence : il concentre 79,1 % de toutes les données sensibles envoyées. Et 21 % de ces données l’ont été via la version gratuite, hors de tout cadre de gouvernance.
- Percée des apps chinoises : 7 % des utilisateurs ont accédé à des IA chinoises comme DeepSeek, Manus, Ernie Bot, Qwen Chat, Baidu Chat… Ces outils posent des problèmes de conservation et de réutilisation des données.
- Glissement vers des données critiques :
- Les données juridiques et financières ont doublé (30,8 %),
- Le code sensible a presque doublé (10,1 %),
- Les données clients (27,8 %) et employés (14,3 %) ont reculé.
En clair, l’IA s’infiltre désormais au cœur des fonctions à forte valeur ajoutée, ce qui accroît massivement le risque de fuites à fort impact.
Un risque souvent sous-estimé par les utilisateurs
Ces usages ne sont pas nécessairement malveillants. Dans la majorité des cas, les employés agissent par souci d’efficacité, pour gagner du temps dans la rédaction de mails, le traitement de documents, la génération de contenu ou le support client. Mais ce pragmatisme du terrain se heurte à une réalité plus inquiétante : 69 % des utilisateurs n’ont reçu aucune formation sur les risques liés à l’IA.
Ignorant les implications réglementaires (RGPD, secret professionnel, confidentialité), beaucoup pensent – à tort – qu’il suffit de ne pas donner de noms pour éviter les problèmes.
En vérité, même un simple contenu texte contenant des instructions internes, des éléments contractuels ou des données métiers peut constituer un actif sensible, notamment lorsqu’il est soumis à une IA dont les politiques de conservation ou de réutilisation ne sont pas transparentes.
La ruée vers l’IA générative
Le premier trimestre 2025 a marqué l’entrée de l’IA générative (GenAI) au cœur des opérations d’entreprise. Cette adoption rapide mêle opportunités colossales et risques souvent sous-estimés.
- Plus de 75 % des entreprises utilisent désormais l’IA, selon McKinsey.
- Le potentiel de productivité est estimé à 4 400 milliards $.
- Le marché devrait croître de près de 40 % en 2025.
Selon une enquête de McKinsey, 74 % des PDG admettent qu’ils pourraient perdre leur poste dans les deux ans s’ils ne livrent pas de résultats concrets grâce à l’IA
Tobi Lütke, PDG de Shopify, a même imposé l’IA comme norme interne : Les équipes doivent prouver qu’une tâche ne peut pas être automatisée avant d’envisager un recrutement. L’IA est considérée comme un multiplicateur de productivité x100.
Mais cette pression peut inciter à prendre des raccourcis risqués si les outils officiels sont jugés insuffisants.
L’explosion de la Shadow AI
Même les entreprises qui tentent de restreindre l’usage de l’IA rencontrent un obstacle majeur : la Shadow AI.
- 68 % des utilisateurs de ChatGPT le cachent à leur hiérarchie
- Près de la moitié refuserait de cesser même si l’outil était interdit
- Les employés trouvent l’IA trop attrayante pour y renoncer, même sans licence approuvée
Il faut dire que ce n'est pas vraiment une surprise. Une enquête précédente de Salesforce parvenait aux mêmes conclusions : selon elle, de nombreux utilisateurs d'IA générative sur le lieu de travail exploitent la technologie sans formation, conseil ou approbation de leur employeur. Dans son rapport Generative AI Snapshot Research Series, The Promises and Pitfalls of AI at Work, Salesforce a indiqué que 55 % des travailleurs ont utilisé des outils d'IA générative non approuvés au travail, et 40 % des utilisateurs d'IA générative sur le lieu de travail ont utilisé des outils interdits au travail, de nombreux travailleurs reconnaissant encore que l'utilisation éthique et sûre de l'IA générative passe par l'adoption de programmes approuvés par l'entreprise.
L'enquête menée par Salesforce auprès de plus de 14 000 travailleurs issus de diverses entreprises situées en Amérique du Nord, en Europe, en Amérique latine et au Moyen-Orient a révélé qu'en dépit des promesses que l'IA générative offre aux travailleurs et aux employeurs, l'absence de politiques clairement définies et de mécanismes d'application conçus pour contrôler son utilisation peut exposer leur entreprise à des risques opérationnels, juridiques et réglementaires.
Bring Your Own AI : l’ombre d’une adoption sauvage
ChatGPT domine les usages, mais le tableau est bien plus éclaté :
- Les entreprises utilisent en moyenne 254 applications IA différentes, ou apps avec IA intégrée.
- Cela reflète une phase de tests massifs mais aussi un débordement incontrôlé des solutions SaaS.
- 45,4 % des requêtes contenant des données sensibles proviennent de comptes personnels (et non professionnels). Parmi eux, Gmail représente 57,9 % des adresses utilisées.
Résultat : la commodité prend le pas sur la sécurité et la gouvernance d’entreprise.
Fait inattendu : les fichiers image représentent 68,3 % des fichiers uploadés vers ChatGPT.
Explication probable : des employés ont créé des portraits de collègues à la sauce Ghibli.
Les autres types de fichiers fréquemment envoyés :
- PDF : 13,4 %
- DOCX : 5,46 %
- XLSX : 4,90 %
- CSV : 3,17 %
- PPTX : 1,45 %
Côté vidéo : très faible utilisation
- MP4 : 0,18 %
- QuickTime (.mov) : 0,01 %
L’essor des applications IA chinoises
En 2025, le paysage de l’IA en Chine a connu une accélération fulgurante, marquée par l’arrivée de plusieurs chatbots avancés en compétition directe avec leurs équivalents occidentaux.
Les principales plateformes IA chinoises dans le rapport sont :
- Baidu Chat et Ernie Bot (Baidu) : amélioration continue de la compréhension du langage et intégration croissante en entreprise.
- DeepSeek : apprécié pour ses modèles open-source puissants, qui séduisent chercheurs et développeurs.
- Kimi Moonshot : mis en lumière pour sa capacité à traiter de longs contextes, idéal pour documents complexes et raisonnement approfondi.
- Manus (MiniMax) : se concentre sur la conversation polyvalente.
- Qwen Chat (Alibaba) : conçu pour la productivité et le travail intellectuel.
Ensemble, ces outils témoignent d’un maturité rapide de l’écosystème IA chinois, qui rivalise désormais avec les géants occidentaux dans les usages pro et grand public.
Usage réel en entreprise
7 % des utilisateurs de l’échantillon étudié ont eu recours à ces plateformes chinoises. Cela représente 565 utilisateurs sur 8 000.
Inquiétudes majeures pour la sécurité
Les responsables cybersécurité s’inquiètent déjà des fuites de données sensibles vers ces outils. En Chine, l’État peut demander à tout moment l’accès aux données collectées. Toute donnée partagée avec DeepSeek doit être considérée comme potentiellement récupérable par le Parti communiste chinois.
La mutation des fuites de données sensibles
En comparant les deux périodes, on observe une légère baisse du volume global de données sensibles exposées, mais surtout un bouleversement dans la nature des données compromises, ce qui modifie profondément le profil de risque des entreprises.
Tendance globale : Le taux de requêtes sensibles est passé de 8,5 % à 6,7 %. Cette baisse ne doit pas être perçue comme rassurante : Elle pourrait refléter une meilleure sensibilisation… ou simplement des limites dans la détection.
Type de donnée Premier trimestre 2024 Premier trimestre 2025 Évolution Juridique & Finance 14,9 % 30,8 % + 15,9 points Code sensible 5,6 % 10,1 % + 4,5 points Données clients 45,8 % 27,8 % - 18 points Données employés 26,8 % 14,3 % -12,5 points Données personnelles - 14,8 % explicitement mesuré au premier trimestre 2025 Sécurité 6,9 % 2,1 % - 4,8 points
Où vont les données sensibles ?
L’analyse montre une concentration massive des fuites de données vers ChatGPT, en particulier vers sa version gratuite, échappant à tout cadre de gouvernance sécurisé.
Données sensibles envoyées par plateforme :
- ChatGPT (OpenAI) : 79,1 % des données sensibles, dont 21 % (2 479 requêtes) ont transité par la version gratuite, non encadrée
- Claude (Anthropic)
- Gemini (Google)
- Copilot (Microsoft)
- Perplexity AI
Répartition par type de données sensibles
Les données les plus exposées aux IA sont classées en six catégories :
- Données clients
- Données employés
- Données juridiques et financières
- Données de sécurité
- Code sensible
- Clés d’accès ou de configuration (source code + access keys)
La quasi-totalité de ces types de données sont principalement exposés via ChatGPT, ce qui renforce son rôle central dans les risques liés à l’IA en entreprise.
Vers un point de rupture ?
La généralisation du Shadow AI n’est plus marginale : elle est devenue structurelle.
« C’est comme si chaque collaborateur disposait d’un assistant personnel externe, non audité, connecté à des serveurs étrangers, et sans aucun engagement de confidentialité réel », résume un expert en cybersécurité interrogé par Harmonic.
Les DSI, CISO et responsables de la conformité se retrouvent face à un dilemme :
- Bloquer l’accès à ces outils, au risque de générer de la frustration, de l’inefficacité et d’encourager des pratiques encore plus cachées.
- Encadrer l’usage, en créant une zone d’expérimentation surveillée, mais cela suppose d’investir dans des outils, des formations et une gouvernance souple.
Quelles stratégies pour reprendre le contrôle ?
Le rapport propose plusieurs pistes pour concilier innovation et sécurité :
1. Visibilité proactive
Mettre en place des outils de détection des interactions avec les plateformes d’IA, en analysant les flux réseau, les connexions SaaS et les comportements utilisateurs.
2. Formation ciblée
Intégrer des modules pédagogiques sur les bonnes pratiques IA dans les parcours d’onboarding et les plans de formation annuels. Exemple : quels types de données ne jamais transmettre à une IA externe ? Quelles alternatives validées utiliser ?
3. Catalogue d’outils d’IA approuvés
Établir une “marketplace” interne regroupant les IA validées, avec leurs usages autorisés, leurs limites et les conditions de traitement des données.
4. Politiques dynamiques
Plutôt que d’interdire en bloc, adopter une approche granulaire : autoriser certains usages (réécriture, traduction) mais interdire l’upload de fichiers RH, juridiques ou commerciaux.
Conclusion : bâtir une culture de l’IA maîtrisée
La frontière entre usage personnel et professionnel s’estompe. Les collaborateurs n’attendent plus l’approbation pour intégrer l’IA dans leur quotidien. Ils veulent de la vitesse, de la simplicité, de l’autonomie.
Mais cette autonomie doit être canalisée. L’IA ne doit pas devenir un angle mort de la stratégie numérique, ni un cheval de Troie pour les fuites d’information.
Le défi de demain ne sera pas de contrôler l’IA, mais de gouverner son usage. Avec des outils de visibilité, des lignes directrices claires et une pédagogie adaptée, l’entreprise peut transformer cette menace en levier de compétitivité durable.
Source : rapport Harmonic Security
Et vous ?
Vous arrive-t-il également d'utiliser l'IA au travail ? De quel chatbot vous servez-vous ? Est-il autorisé ou non ? Y a-t-il des limites dans les échanges que vous pouvez avoir avec lui ? Si oui, lesquelles (type de documents partagés, type d'information renseignée, etc.) ?
Peut-on encore protéger les données sensibles si les employés les soumettent volontairement à des IA tierces hors de tout contrôle ?
L’usage d’IA développées en Chine ou en Russie dans des contextes professionnels occidentaux doit-il être interdit par défaut ? Pourquoi ?
Est-il acceptable qu’un salarié transmette des éléments professionnels à un chatbot IA sachant que les prompts peuvent être conservés ?
L’interdiction totale des outils d’IA générative non validés freine-t-elle l’innovation ou protège-t-elle réellement l’entreprise ?
Comment définir une “bonne pratique IA” quand les outils évoluent plus vite que les chartes internes ?
Est-il plus dangereux de bloquer l’IA (et créer une frustration) ou de la laisser se répandre sans encadrement ?
Voir aussi :
Que se passe-t-il lorsque des employés utilisent un logiciel qui n'a pas été approuvé ? Quelques conseils face aux enjeux du Shadow IT
La moitié des employés utilisent la GenAI au travail pour des activités complexes alors que seulement 41 % des entreprises évaluent activement la GenAI ou en ont fait une priorité, selon Betterworks
Plus de deux tiers des salariés soutiennent l'IA générative pour améliorer le travail. La technologie leur permettrait d'économiser cinq heures par semaine en moyenne, selon une enquête de Salesforce
Partager