RiffLab Media

IA en entreprise : ce que la supervision européenne change vraiment pour vos données

Date Published

IA en entreprise : ce que la supervision européenne change vraiment pour vos données

Vous avez déployé un copilote IA sur votre CRM. Votre équipe RH utilise un outil de scoring de candidatures. Votre service client tourne partiellement sur un chatbot connecté à vos bases internes. Et quelque part dans vos conditions d'utilisation, un paragraphe que personne n'a vraiment lu précise où vos données partent, combien de temps elles sont conservées, et si elles servent à entraîner un modèle. En 2026, ce paragraphe n'est plus seulement un détail contractuel. Il est au cœur d'une obligation réglementaire qui commence à avoir des dents.

Ce qui a changé depuis l'entrée en vigueur de l'AI Act

L'AI Act européen, adopté en 2024, a suivi un calendrier de déploiement progressif. En 2026, les obligations relatives aux systèmes dits « à haut risque » sont pleinement applicables, et les premières lignes directrices des autorités nationales de supervision — en France, la CNIL joue un rôle central en coordination avec l'ANSSI sur les aspects de sécurité — commencent à se traduire en pratiques concrètes d'audit et de mise en conformité.

Ce que ça signifie concrètement : si vous utilisez un système d'IA pour des décisions qui ont un impact significatif sur des personnes — recrutement, scoring de crédit, gestion de la performance, tri de dossiers — vous entrez dans une catégorie où la traçabilité des décisions, la documentation des biais potentiels et la transparence envers les utilisateurs ne sont plus optionnelles. Ce n'est pas une hypothèse. C'est le texte.

Mais au-delà du cadre légal, il y a une question plus fondamentale que beaucoup de DSI n'ont pas encore vraiment tranchée : savez-vous ce que vos fournisseurs IA font de vos données ?

Le vrai problème n'est pas le règlement, c'est l'opacité

Dans la majorité des déploiements IA en PME et ETI que l'on observe aujourd'hui, la réponse honnête à cette question est : pas vraiment. On sait que les données ne sont « pas utilisées pour l'entraînement » — c'est ce qu'indique le contrat. Mais la chaîne de sous-traitance derrière un éditeur SaaS européen peut être longue. Le modèle de fondation utilisé est souvent américain. L'inférence se fait parfois dans des datacenters hors UE selon la charge. Et les mécanismes de supervision interne chez le fournisseur sont rarement auditables par le client.

Ce n'est pas nécessairement de la mauvaise foi. C'est souvent de la complexité technique mal documentée, couplée à des équipes commerciales qui ne maîtrisent pas elles-mêmes leur stack d'infrastructure. Mais pour un DSI qui doit répondre de la conformité de son organisation, « ils m'ont dit que c'était conforme » n'est plus une réponse suffisante.

L'AI Act, en ce sens, fait un travail utile : il force la documentation. Les fournisseurs de systèmes à haut risque doivent produire une documentation technique précise sur leur système, ses données d'entraînement, ses limites. Ce corpus devient un levier de négociation que les acheteurs n'avaient pas vraiment avant.

Ce que les autorités de supervision attendent réellement

La CNIL a publié des recommandations successives sur l'IA depuis 2023, et sa doctrine se précise. Sur quelques points clés, le message est relativement clair :

Sur la minimisation des données : les systèmes IA ne devraient pas ingérer plus de données que nécessaire à leur fonction. Un chatbot de support client n'a pas besoin d'accéder à l'historique RH de vos collaborateurs pour répondre à des tickets techniques. Ce principe de minimisation, hérité du RGPD, s'applique aussi aux pipelines IA — et il est rarement respecté dans les intégrations faites à la va-vite.

Sur la traçabilité des décisions : pour les usages à haut risque, vous devez être capable d'expliquer pourquoi le système a produit telle recommandation. Ce n'est pas une exigence d'explicabilité parfaite — les régulateurs ne demandent pas l'impossible aux modèles de type boîte noire — mais une exigence de documentation du processus de décision global, humain compris.

Sur les droits des personnes concernées : si vos salariés ou vos clients sont soumis à des traitements automatisés, ils ont des droits. Droit à l'information, droit de contestation pour les décisions significatives. La chaîne de responsabilité doit être claire, et elle doit remonter jusqu'à vous, pas s'arrêter au fournisseur.

Ce que ça change concrètement dans votre relation avec vos éditeurs

Prenons un exemple concret. Vous utilisez une solution de génération de contrats ou de synthèse documentaire basée sur un grand modèle de langage. Vos documents internes — NDA, contrats clients, données financières — sont envoyés à une API externe pour traitement. Deux questions s'imposent maintenant avec une urgence réglementaire :

Première question : où se fait l'inférence ? Si le modèle tourne dans des datacenters situés hors de l'UE, le transfert de données est soumis aux mécanismes du Chapitre V du RGPD. Les clauses contractuelles types (CCT) couvrent-elles ce cas ? Votre DPO est-il au courant ?

Deuxième question : votre fournisseur est-il en mesure de produire la documentation requise par l'AI Act si vous lui demandez ? Certains éditeurs ont fait cet effort sérieusement. D'autres vous répondront avec un PDF marketing. La différence est maintenant juridiquement significative.

Des acteurs comme Aleph Alpha, le laboratoire allemand dont le modèle Luminous a été conçu dès l'origine avec une logique de souveraineté européenne et de déploiement on-premise ou en cloud souverain, ont structurellement une réponse plus documentée à ces questions. Pas parce qu'ils sont vertueux, mais parce que leur positionnement commercial l'exige. De même, Scaleway — filiale de Iliad — a développé une offre d'inférence IA hébergée en France qui répond à la question de la localisation des données avec des engagements contractuels vérifiables. Ce ne sont pas des solutions miracles, mais ce sont des références qui permettent de poser les bonnes questions à tous vos autres fournisseurs.

Les pièges dans lesquels ne pas tomber

Premier piège : confondre « hébergé en France » et « conforme AI Act ». La localisation des données est une condition nécessaire pour certains traitements, pas suffisante pour la conformité globale. Un système hébergé à Paris qui prend des décisions opaques sur vos candidats RH reste un système à haut risque mal documenté.

Deuxième piège : déléguer entièrement la question à votre DPO ou à votre conseil juridique. La conformité IA est un sujet technique autant que juridique. Si votre DPO ne comprend pas comment fonctionne un pipeline RAG ou ce qu'implique l'accès d'un LLM à votre base documentaire, le risque n'est pas couvert — il est juste documenté différemment. La DSI doit être dans la boucle, pas en aval.

Troisième piège : attendre le premier contrôle pour agir. Les autorités de supervision, CNIL en tête, ont clairement indiqué qu'elles privilégieraient d'abord la pédagogie et l'accompagnement avant la sanction. Mais cette fenêtre de bienveillance n'est pas indéfinie, et les premières décisions qui tomberont — probablement sur des usages RH ou des systèmes de scoring — feront jurisprudence rapidement.

Par où commencer, sans refaire votre stack de zéro

La bonne nouvelle : vous n'avez pas à tout revoir. Ce qui est utile, c'est une cartographie honnête de vos usages IA actuels, classés selon le niveau de risque réel — pas le niveau de risque que vous espérez. Pour chaque usage à haut risque identifié, trois questions concrètes :

Un — Pouvez-vous produire, sur demande d'un régulateur, la documentation de ce système ? Si non, qui chez votre fournisseur peut vous la fournir, et dans quel délai ?

Deux — Les personnes concernées par les décisions de ce système sont-elles informées ? Avez-vous un mécanisme de contestation humaine documenté ?

Trois — Si vous deviez changer de fournisseur demain, où sont vos données ? Dans quel format ? Avec quelle portabilité réelle ?

Ces questions ne sont pas techniques. Elles sont stratégiques. Et la plupart des DSI qui y répondent honnêtement découvrent deux ou trois angles morts qu'ils n'avaient pas anticipés.

La supervision européenne : contrainte ou levier ?

On peut lire l'AI Act comme une charge administrative supplémentaire. C'est une lecture valide si vous n'utilisez l'IA que pour des tâches à faible risque et que vous avez déjà une hygiène RGPD sérieuse. La conformité sera alors marginalement plus documentée, pas fondamentalement différente.

Mais pour les DSI qui ont des ambitions plus larges sur l'IA — automatisation de processus RH, scoring client, aide à la décision médicale ou financière — le cadre européen offre quelque chose que le far west des années 2023-2024 n'offrait pas : une base contractuelle pour exiger des comptes à vos fournisseurs. La documentation requise par l'AI Act est aussi une protection pour vous, pas seulement une contrainte.

La question n'est pas de savoir si vous allez utiliser l'IA. La question est de savoir si vous serez en mesure de répondre de ces usages devant vos actionnaires, vos régulateurs, et vos collaborateurs. En 2026, ceux qui ont répondu sérieusement à cette question ont un avantage concurrentiel réel. Pas parce qu'ils sont plus prudents, mais parce qu'ils peuvent aller plus vite — sans risquer de devoir tout arrêter sur injonction.


*Vous avez mis en place un dispositif de gouvernance IA dans votre organisation ? Vous avez rencontré des difficultés spécifiques avec un fournisseur sur ces sujets de documentation ? Le débat continue dans notre espace communautaire DSI.*

Cet article vous a été utile ?

Recevez chaque vendredi nos analyses sur les alternatives souveraines SaaS. Pas de spam.

Pas de spam. Désinscription en un clic. Données hébergées en Europe.