En 2023, Samsung a vécu en quelques semaines trois incidents distincts. Trois employés différents, dans la même division semi-conducteurs, ont collé dans ChatGPT respectivement : du code source propriétaire pour faire débugger une fonction, l'enregistrement audio d'une réunion stratégique pour en obtenir un résumé, et du code lié au processus de production pour le faire optimiser. Samsung a réagi en restreignant l'usage des LLM externes et en lançant son propre outil interne. Cas d'école pour comprendre pourquoi le shadow AI est aujourd'hui le risque IA n°1 dans la majorité des entreprises.
Définir le shadow AI
Shadow AI = tout usage d'IA générative dans le cadre professionnel qui n'est pas validé, encadré ou même connu de l'IT et de la sécurité. Cela inclut :
- ChatGPT, Claude, Gemini en version grand public, gratuite ou personnelle.
- Plugins de navigateur "AI assistant" installés sans review.
- Outils SaaS qui ont silencieusement intégré une couche IA (Notion AI, Grammarly, Otter, Slack AI...).
- Modèles open-source téléchargés et exécutés en local sans gouvernance.
Le shadow AI n'est pas un échec moral des employés. C'est la conséquence prévisible d'un écart entre l'utilité immédiate de l'IA et la lenteur des process IT. L'employé voit un ROI personnel de 10 à 50% sur sa productivité ; l'IT voit un risque diffus. Les deux ont raison.
Les trois familles de risques
1. Fuite de données vers le tiers
C'est le risque Samsung. Les conditions d'utilisation des LLM grand public peuvent prévoir l'usage de vos prompts pour entraîner les modèles futurs. Même quand ce n'est pas le cas (ChatGPT Enterprise, Claude for Work), la donnée transite et est stockée chez le fournisseur — et tombe sous sa juridiction.
Pour les données régulées (santé, finance, secret industriel, secret médical, données personnelles non anonymisées) : transit non maîtrisé = violation potentielle du RGPD, de HDS, de HIPAA, du secret bancaire.
2. Décisions sur des sorties non vérifiées
Un commercial qui rédige une proposition avec un LLM et l'envoie sans relire, un dev qui colle du code généré sans le tester, un juriste qui synthétise un contrat avec un assistant non validé — autant d'occasions de propager une erreur, une hallucination, ou un biais directement à un client ou un partenaire.
3. Empreinte conformité non maîtrisée
Si vos clients ou vos régulateurs vous demandent où leurs données vont, vous devez pouvoir répondre. Le shadow AI rend cette réponse impossible. C'est aussi un trou dans une démarche ISO 27001, SOC 2, ou de conformité AI Act.
La mauvaise réponse : interdire
Bloquer l'accès à ChatGPT au niveau du proxy d'entreprise ne fait que pousser les employés à utiliser leur téléphone personnel ou un VPN. Vous perdez la visibilité sans réduire le risque. C'est la posture qui produit le plus de shadow AI dans la durée.
La bonne réponse : encadrer et offrir une alternative
Étape 1 : cartographier l'existant
Sondage anonyme aux équipes : quels outils IA utilisez-vous ? Pour quels cas d'usage ? Quelles données entrent dedans ? Sans jugement, juste pour comprendre. La réalité est presque toujours plus large que ce que la direction imagine.
Étape 2 : classer les cas d'usage par niveau de risque
- Vert : usage interne sur données publiques (rédaction, traduction, brainstorming). Outil grand public OK.
- Orange : usage sur données internes non-sensibles. Solution validée nécessaire (ChatGPT Enterprise, Claude for Work, Mistral Cloud, Bedrock).
- Rouge : usage sur données sensibles ou régulées. Solution interne déployée dans votre cloud ou on-premise, isolation maximale.
Étape 3 : déployer une alternative au moins équivalente
Le facteur d'échec n°1 d'une politique IA est de proposer un outil interne moins bon que celui du marché. Les employés contourneront. Si vous déployez Claude for Work, prenez Claude. Si vous bricolez un wrapper avec un modèle médiocre, vous avez perdu d'avance.
Étape 4 : politique écrite, formation, audit
- Politique d'usage IA en 2-3 pages, comprise et signée par tous les employés.
- Formation 30 minutes obligatoire pour tout nouvel arrivant : exemples concrets, scenarios.
- Audit trimestriel des outils SaaS qui ont intégré de l'IA et n'étaient pas dans la liste validée.
Le cas particulier des intégrations IA "gratuites"
Beaucoup d'outils SaaS que vous payez déjà ont intégré silencieusement une couche IA. Notion AI, Grammarly Premium, Slack AI, Microsoft Copilot, Gmail Smart Compose. Ces fonctionnalités envoient potentiellement vos contenus à des modèles tiers (OpenAI, Anthropic, Google) ou aux modèles maison du SaaS.
Pour chaque outil utilisé en entreprise :
- Désactivation des fonctions IA quand elles ne sont pas explicitement validées.
- Lecture des DPA (Data Processing Agreement) pour comprendre où va la donnée.
- Si l'outil ne permet pas de désactiver, c'est un sujet de gouvernance fournisseur.
Le shadow AI n'est pas un sujet outil
C'est un sujet de gouvernance produit. Tant que vos équipes n'ont pas un cas d'usage clair, validé et outillé, elles continueront à colmater elles-mêmes. La bonne posture est : "voici les trois usages que nous offrons, voici ce qui n'est pas autorisé, voici comment demander un nouvel usage". Sans cette structure, l'interdiction seule est inefficace, et la permissivité est dangereuse.
Pour les particularités spécifiques aux assistants Microsoft, voir Microsoft Copilot et oversharing. Pour la sécurisation d'une intégration enterprise de Claude, voir Claude (Anthropic) en entreprise.