Pourquoi un audit sécurité IA n'est pas un pentest classique
Un pentest applicatif classique teste des vulnérabilités technique (injection SQL, XSS, contrôle d'accès cassé). Un système LLM en production introduit 5 nouvelles familles d'attaques que les pentests traditionnels ne couvrent pas :
1. Prompt injection directe et indirecte — manipulation du modèle via les inputs ou les données contextuelles (documents, RAG, MCP, emails).
2. Jailbreak des guardrails — contournement des protections du modèle par roleplay, encodage, multi-tour.
3. Data leakage et exfiltration — fuite des données d'entraînement mémorisées, contexte d'autres utilisateurs, secrets de l'environnement.
4. Model manipulation et data poisoning — empoisonnement de l'index RAG ou des données de fine-tuning.
5. Hijack d'agent — compromission d'un agent autonome via instruction injectée pour qu'il abuse des outils accessibles.
Le référentiel principal est l'OWASP LLM Top 10 (LLM01-LLM10), complété par le NIST AI RMF Generative Profile (AI 600-1).
Périmètre d'un audit sécurité IA WeeSec
Un audit complet couvre 6 axes :
Axe 1 — Threat modeling. Modélisation des menaces propres à votre système IA, alignée OWASP LLM Top 10 + NIST AI RMF. Cartographie des actifs (modèle, prompts système, données contextuelles, outils accessibles, comptes), identification des trust boundaries, listing des scénarios d'attaque pertinents.
Axe 2 — Tests adversariaux ciblés. Tests manuels et automatisés (Garak, PyRIT, Promptfoo) sur prompt injection, jailbreak, exfiltration. Pour les agents : tests de hijack, exécution non autorisée, escalade de privilèges via outils.
Axe 3 — Audit du RAG. Si vous opérez un RAG : sécurité de l'ingestion (parsing PDF, scraping web), contrôle de l'index (authoring, validation), isolation cross-tenant, prévention des injections indirectes.
Axe 4 — Audit des agents. Périmètre des outils accessibles, sandbox d'exécution, kill-switch, validation des entrées/sorties, audit log forensique. Particulièrement critique pour les agents tool-using (Claude Agent SDK, LangGraph, AutoGen).
Axe 5 — Conformité. Alignement avec OWASP LLM Top 10, NIST AI RMF, ISO 42001, AI Act. Préparation à un éventuel audit certificateur.
Axe 6 — Durcissement. Recommandations concrètes : architecture défense en profondeur (input filter + Constitutional AI + output filter + sandbox + logs), guardrails (Llama Guard, ShieldGemma, IBM Granite Guardian), red teaming continu en CI/CD.
Outils utilisés
WeeSec opère avec un mix d'outils open source et de techniques manuelles :
- Garak (NVIDIA, open source) : framework de référence avec 100+ probes adversariales.
- PyRIT (Microsoft) : orchestration multi-tours.
- Promptfoo : tests d'évaluation et de robustesse.
- Lakera Red, Robust Intelligence (commerciaux) selon contexte.
- Tests manuels structurés : 30+ patterns de prompt injection avancés, jailbreak adversariaux, exfiltration.
- Pour les agents : tests d'évasion de sandbox, manipulation des outils, prompt injection indirecte via outputs d'outils.
Livrables et plan d'action
À l'issue de l'audit (4 à 6 semaines selon ampleur) :
- Rapport d'audit (40-80 pages) : cartographie des menaces, résultats des tests, scoring par axe, vulnérabilités identifiées avec preuves.
- Plan de durcissement priorisé : 20 à 50 actions classées (Critique / Important / Optimisation), avec effort et cibles techniques.
- Architecture cible documentée : schéma de l'architecture défensive recommandée, intégrations CI/CD, monitoring.
- Indicateurs de robustesse : pass rate sur Garak/PyRIT, score OWASP LLM Top 10, baseline de surveillance.
- Restitution exécutive + atelier de transfert avec votre équipe technique.
WeeSec peut accompagner ensuite la mise en œuvre opérationnelle (mode RSSI externalisé ou mission ad-hoc).
Combien ça coûte ?
Audit sécurité IA standard (1 système LLM en production, ampleur moyenne) : 18 à 35 K€ HT, 4 à 6 semaines.
Audit sécurité IA étendu (système avec RAG complexe ou agents autonomes en production) : 30 à 60 K€ HT, 6 à 8 semaines.
Audit avec accompagnement durcissement (audit + 3 mois de mise en œuvre) : 60 à 120 K€ HT.
Audit éclair (cadrage 1 semaine pour décider de la stratégie) : 5 à 8 K€ HT.
Une scope-call gratuite de 20 minutes permet de cadrer le périmètre et fournir un devis ferme.
Pourquoi WeeSec sur la sécurité IA
La sécurité IA est un domaine très récent. La plupart des cabinets de cybersécurité classiques n'ont pas l'expertise IA. La plupart des cabinets IA n'ont pas l'expertise cybersécurité offensive.
La fondatrice WeeSec combine les deux :
- Doctorat en cybersécurité Télécom SudParis (2009) — fondation académique solide.
- MIT Professional Education — Applied AI — formation IA récente structurée.
- 15+ ans en cybersécurité opérationnelle — savoir distinguer théorie et pratique.
- 3 ans de pratique active sur la sécurité LLM depuis l'arrivée de GPT-3.5/4 — tests, audits, missions de durcissement.
C'est l'un des rares profils en France à pouvoir auditer un système LLM avec une lecture technique et une lecture conformité simultanées.