Sécurité IA

Audit d'un fournisseur LLM tiers : checklist de DDQ

Avant de connecter votre application à un fournisseur LLM (OpenAI, Anthropic, Mistral, Cohere) : la checklist DDQ qui détermine si c'est compatible avec vos engagements clients et réglementaires.

Aroua Biri 8 min

Avant de connecter votre application à un fournisseur LLM tiers, vous devez auditer son profil sécurité, conformité, et risque opérationnel. Pour beaucoup de scale-ups, ce travail est traité comme une formalité — alors que les engagements pris envers vos clients (DPA, SOC 2, ISO 27001) imposent une due diligence sérieuse. Voici la checklist DDQ exhaustive et les pièges typiques.

Pourquoi ça compte

Vos clients vous évaluent sur :

  • Vos sous-processeurs (qui héberge leurs données, où, sous quelle juridiction).
  • Vos engagements de localisation (UE-only, France-only, etc.).
  • Vos engagements de non-utilisation des données pour entraînement.
  • Vos engagements de notification d'incident en cascade.

Si vous utilisez OpenAI sans DPA conforme RGPD, et que votre client vous a demandé un DPA RGPD, vous êtes en non-conformité contractuelle.

Si vous utilisez Mistral en mode "data shared for training" sans le savoir, et que vos clients vous ont interdit cet usage, vous êtes en non-conformité.

La checklist DDQ — ce qu'il faut vérifier

Sécurité de l'information

  • Certifications : SOC 2 Type II, ISO 27001 disponibles ? Date de dernière émission. Lecture du rapport.
  • DPA (Data Processing Agreement) : conforme RGPD ? Couvre la localisation, les sous-processeurs, les obligations de notification ?
  • Liste des sous-processeurs : qui sont-ils, où sont-ils ?
  • Schéma de l'infrastructure : où vos données transitent et sont stockées ?

Localisation des données

  • Région d'inférence : peut-on choisir UE / France / autre ?
  • Région de stockage des logs : différente de la région d'inférence ?
  • Région de stockage du fine-tuning data (si vous fine-tunez) ?
  • Transferts internationaux : SCC ou autre mécanisme RGPD valide ?

Politique d'usage des données

  • Utilisation pour entraînement : option de désactivation par défaut ? Confirmation contractuelle ?
  • Rétention : durée de conservation des prompts/réponses ? Possibilité de la réduire ou supprimer ?
  • Logging : qu'est-ce qui est loggé, pour combien de temps, qui y a accès ?
  • Incident response : notification dans quels délais en cas de fuite ?

Conformité sectorielle

  • HIPAA BAA : disponible si santé US ?
  • HDS : certifié ou hébergé en HDS si santé France ?
  • PCI DSS : compatibilité si finance ?
  • DORA : prêt si vous fournissez à du financier EU ?

Sécurité technique

  • Authentification : OAuth, API keys avec scopes, rotation possible ?
  • Rate limiting et quotas : protection contre abuse ?
  • Encryption : in-transit (TLS 1.3 minimum), at-rest, KMS ?
  • VPC / private link : option pour éviter Internet public ?

Modèles spécifiques

  • Liste des modèles disponibles avec versions.
  • Politique de dépréciation : préavis avant retrait d'un modèle.
  • SLA de disponibilité : 99.9% minimum attendu.
  • Roadmap : transparence sur les évolutions.

Gouvernance

  • Politique d'alignement : Constitutional AI ? Filtres ? Documentation ?
  • Posture safety : le fournisseur publie-t-il des system cards ?
  • Recherche en sécurité : programme bug bounty ? Coordination avec chercheurs ?

Contrat

  • Limites de responsabilité : raisonnables ?
  • Engagement de continuité : que se passe-t-il si le fournisseur fait faillite ou est acquis ?
  • Clause d'audit : pouvez-vous auditer (ou un tiers mandaté) ?
  • Plan de sortie : portabilité de vos fine-tunes, suppression certifiée des données à la sortie ?

Comparaison rapide des fournisseurs majeurs (Q1 2026)

Anthropic (Claude)

  • Certifications : SOC 2 Type II, ISO 27001, HIPAA BAA disponible.
  • Localisation : API directe principalement US. Bedrock pour EU. Vertex AI pour multi-région.
  • Training : par défaut, données API non utilisées pour training. DPA explicite.
  • Posture sécurité : Constitutional AI, transparency reports réguliers.
  • Adapté : usages sensibles UE via Bedrock/Vertex.

OpenAI

  • Certifications : SOC 2 Type II, ISO 27001, HIPAA BAA.
  • Localisation : data residency EU disponible (depuis 2024). Azure OpenAI permet plus de contrôle.
  • Training : par défaut, données API non utilisées pour training (depuis 2023). À vérifier dans votre contrat.
  • Posture : moderation API gratuite, GPT-4o avec safety natif.
  • Adapté : majorité des usages B2B avec data residency EU activée.

Mistral

  • Certifications : SOC 2 Type II, ISO 27001 en cours selon dernière info publique 2025.
  • Localisation : France-native, hébergement EU. Avantage souveraineté.
  • Training : selon plan, à vérifier explicitement.
  • Posture : modèles open weights pour les versions de base, fermés pour les versions de pointe.
  • Adapté : organisations exigeant souveraineté EU/française.

Google (Gemini via Vertex AI)

  • Certifications : très large (SOC 2, ISO 27001, HIPAA, FedRAMP, etc.).
  • Localisation : multi-région avec contrôle granulaire.
  • Training : par défaut, données API non utilisées (pour Vertex AI Enterprise).
  • Adapté : organisations déjà sur Google Cloud.

Cohere

  • Certifications : SOC 2 Type II.
  • Localisation : multi-région possible.
  • Adapté : usages enterprise B2B notamment retrieval/embedding.

Les pièges typiques

1. Confondre l'API directe et l'API via cloud

Anthropic API directe et Claude via Bedrock ont des profils sécurité différents. Bedrock applique les standards AWS, l'API directe applique les standards Anthropic. Vérifier ce que vous avez.

2. Oublier les sous-processeurs

OpenAI utilise Microsoft Azure pour l'infrastructure. Cela compte dans votre chaîne de sous-processeurs. Si votre client interdit Microsoft, vous avez un problème.

3. Confondre "pas utilisé pour training" et "pas conservé"

Beaucoup de fournisseurs ne s'entraînent pas sur vos données, mais les conservent (typiquement 30 jours pour debugging et abuse monitoring). À clarifier dans votre DPA.

4. Ignorer la chaîne complète

Si vous utilisez un agent qui appelle Claude qui appelle un MCP server qui appelle votre base — chaque maillon est un sous-processeur potentiel.

La pratique du mix

Pour un SaaS B2B sérieux en 2026, le bon design est souvent multi-fournisseur :

  • Mistral ou self-host pour les usages très sensibles (souveraineté requise).
  • Claude via Bedrock EU pour les usages sensibles avec besoin de qualité top.
  • OpenAI via Azure EU pour la diversité de modèles (DALL-E, Whisper, embeddings).

Chaque fournisseur fait l'objet d'une DDQ complète, documentée, mise à jour annuellement.

Documentation pour vos clients

Maintenez un document accessible (sur demande) qui liste :

  • Vos fournisseurs LLM.
  • Leur région.
  • Leur DPA.
  • Vos engagements de non-utilisation pour training.

Vos acheteurs DDQ vont le demander. L'avoir prêt accélère vos cycles de vente.

Un sujet connexe chez vous ?

20 minutes pour cadrer ensemble. Aucune offre commerciale envoyée à froid.

Réserver un échange Calendly