RiffLab Media

Glasswing et Anthropic : quand la cybersécurité européenne repose sur des fondations américaines

Date Published

# Glasswing et Anthropic : quand la cybersécurité européenne repose sur des fondations américaines

Un outil de cybersécurité propulsé par un modèle d'IA américain, hébergé sur une infrastructure américaine, soumis au droit américain. Pour beaucoup de DSI européens, cette phrase décrit aujourd'hui une réalité quotidienne, pas un scénario hypothétique. Le partenariat entre Glasswing Ventures et Anthropic — l'un des acteurs les plus en vue du secteur de l'IA générative — cristallise une tension que les décideurs IT du Vieux Continent ne peuvent plus se permettre d'ignorer.

Ce qui s'est passé, et pourquoi ça compte

Glasswing, fonds de capital-risque et acteur de l'écosystème cybersécurité IA basé à Boston, a intégré les capacités d'Anthropic — notamment son modèle Claude — dans les outils et les startups de son portefeuille. L'idée est simple : accélérer la détection des menaces, automatiser l'analyse des incidents, rendre la réponse aux attaques plus rapide grâce à des modèles de langage avancés. Sur le papier, c'est une promesse séduisante. Dans les faits, c'est aussi un signal d'alarme pour quiconque s'intéresse à la question de la dépendance technologique.

Ce mouvement n'est pas isolé. En 2026, l'intégration de l'IA générative dans les plateformes de cybersécurité est devenue quasi systématique. Les SIEM, les EDR, les outils d'analyse comportementale — presque tous embarquent désormais un modèle de langage quelque part dans leur chaîne de traitement. Et dans la très grande majorité des cas, ce modèle est américain : OpenAI, Anthropic, ou Google DeepMind.

Le problème pour les DSI européens n'est pas tant la qualité de ces outils — elle est souvent réelle — que la nature de ce qu'ils traitent. Les données qui transitent par ces systèmes ne sont pas des métadonnées anodines. Ce sont des logs d'événements de sécurité, des descriptions d'incidents, parfois des fragments de code source ou des informations sur la topologie réseau d'une organisation. Autrement dit, des données dont la fuite ou l'accès non contrôlé constitue en soi un risque de sécurité.

Le paradoxe de la cybersécurité sous dépendance

Il y a quelque chose d'un peu vertigineux dans la situation actuelle : pour sécuriser leurs systèmes d'information, les entreprises européennes s'appuient sur des outils dont les fondations échappent à leur juridiction. L'outil qui est censé protéger vos données est lui-même une boîte noire soumise au Cloud Act américain, potentiellement accessible par des autorités fédérales américaines dans certaines conditions, et dont les conditions de traitement des données peuvent évoluer au gré des décisions d'une entreprise privée basée à San Francisco.

Ce n'est pas une vue de l'esprit. Le Cloud Act de 2018 donne aux autorités américaines la capacité d'accéder aux données stockées par des entreprises américaines, même hébergées hors des États-Unis, sous certaines conditions légales. Les accords de transfert de données entre l'UE et les États-Unis — le fameux Data Privacy Framework — ont certes évolué depuis le Schrems II de 2020, mais leur stabilité juridique à long terme reste un sujet de débat sérieux parmi les juristes spécialisés.

Pour une PME industrielle, une ETI du secteur de la santé ou un cabinet d'avocats, confier l'analyse de ses événements de sécurité à un modèle d'IA opéré depuis l'autre côté de l'Atlantique, c'est potentiellement exposer des informations sensibles à un régime juridique qu'elle ne maîtrise pas.

Ce que ça change concrètement pour un DSI en 2026

La question n'est plus théorique. Depuis l'entrée en vigueur de NIS2 et les premières vagues d'audits de conformité qui l'ont suivie, les RSSI et DSI d'organisations classées comme entités essentielles ou importantes ont dû formaliser leur cartographie des risques liés aux tiers. Et dans cette cartographie, les fournisseurs d'IA intégrés dans les outils de cybersécurité apparaissent désormais comme des points d'attention.

Certains donneurs d'ordre publics — notamment dans le secteur de la défense, de l'énergie ou des collectivités — imposent déjà des exigences de qualification ou de localisation des données qui rendent de facto inéligibles les solutions s'appuyant sur des modèles d'IA non certifiés. L'ANSSI, en France, maintient ses référentiels de qualification qui constituent un filtre implicite. D'autres pays européens avancent sur des logiques similaires.

Mais au-delà du cadre réglementaire, il y a une question plus stratégique que tout CTO devrait se poser : à mesure que l'IA devient le cœur opérationnel de votre posture de sécurité, quel niveau de dépendance êtes-vous prêt à accepter vis-à-vis d'acteurs sur lesquels vous n'avez aucun levier ?

Une dépendance à un outil SaaS, c'est une chose. Une dépendance au moteur de raisonnement qui décide si une alerte est un vrai incident ou un faux positif, c'est une autre dimension. Vous ne choisissez plus seulement un produit, vous déléguez une partie de votre jugement sécurité à un système dont vous ne contrôlez ni les paramètres, ni les biais éventuels, ni l'évolution.

Des alternatives existent, mais elles demandent un effort

Il serait malhonnête de prétendre que les alternatives européennes offrent aujourd'hui exactement le même niveau de maturité que les solutions américaines les plus avancées. Ce serait faux, et les DSI le savent. Mais l'écart se réduit, et certains acteurs méritent d'être regardés sérieusement.

Du côté des modèles de langage, **Mistral AI** — qui a su construire une offre enterprise déployable on-premise — est devenu un interlocuteur crédible pour les organisations qui veulent garder la main sur leur infrastructure d'inférence. Le fait de pouvoir faire tourner le modèle dans son propre environnement, sans que les données transitent par des API externes, change fondamentalement l'équation de confiance. Ce n'est pas une solution magique — l'intégration dans des outils de cybersécurité existants demande du travail — mais c'est une brique souveraine réelle.

Du côté des plateformes de cybersécurité elle-même, Sekoia.io (France) a construit une approche CTI et SIEM qui mérite attention, non pas parce qu'elle est française, mais parce qu'elle a délibérément construit son architecture pour répondre aux contraintes de souveraineté des opérateurs d'importance vitale. Leurs choix techniques et leur modèle de déploiement reflètent une compréhension des contraintes réglementaires européennes que les acteurs américains n'ont structurellement pas.

Cela ne veut pas dire qu'il faut exclure Glasswing ou Anthropic par principe. Cela veut dire qu'un choix éclairé suppose d'avoir évalué les alternatives, documenté les risques juridiques, et décidé en connaissance de cause plutôt que par défaut.

Ce que la situation révèle d'une faiblesse structurelle

Le mouvement de Glasswing vers Anthropic n'est que la manifestation visible d'une tendance de fond : l'IA générative pour la cybersécurité est en train de se construire principalement autour d'un oligopole américain de modèles fondamentaux. Les startups européennes de cybersécurité qui veulent aller vite et lever des fonds s'appuient sur ces modèles disponibles via API, faute de capacité à entraîner les leurs.

C'est une forme de dette technologique collective que l'écosystème européen accumule. Et comme toutes les dettes, elle finit par se payer — soit en cash (coûts de migration le jour où les conditions changent), soit en contraintes opérationnelles (impossibilité de répondre à certains appels d'offres), soit en incidents de sécurité si la dépendance crée une surface d'attaque ou une fuite d'information.

La Commission européenne n'est pas inactive — l'AI Act et les travaux autour du Cyber Resilience Act posent des jalons. Mais entre la production de textes réglementaires et la disponibilité d'une offre souveraine mature, le décalage reste significatif. Les DSI ne peuvent pas attendre que Bruxelles règle le problème à leur place.

Comment aborder la question concrètement

La première chose utile à faire n'est pas de changer de fournisseur du jour au lendemain. C'est de cartographier précisément quels modèles d'IA sont embarqués dans vos outils de sécurité actuels, dans quelles conditions ils traitent vos données, et quelle est votre exposition juridique réelle. Beaucoup de DSI seraient surpris de découvrir l'étendue de leur dépendance aux modèles américains, souvent invisible car logée dans des fonctionnalités secondaires de produits par ailleurs satisfaisants.

Ensuite, la question de la criticité des données traitées est centrale. Tout n'a pas besoin d'être souverain. Les données de configuration de votre réseau interne ou les patterns comportementaux de vos utilisateurs ne méritent pas le même traitement que des métadonnées marketing. Prioriser, c'est déjà de la stratégie.

Enfin, dans les appels d'offres et les renouvellements de contrats, intégrer des clauses contractuelles précises sur la localisation du traitement, les conditions d'accès aux données par le fournisseur et ses sous-traitants, et les engagements en cas de changement de modèle d'IA sous-jacent. C'est fastidieux, mais c'est le seul levier réel à court terme.

En guise d'ouverture

La cybersécurité est peut-être le domaine où la question de la souveraineté est la moins abstraite. On ne parle pas d'idéologie ou de protectionnisme : on parle de savoir qui peut potentiellement accéder aux informations sur vos vulnérabilités, vos incidents, votre topologie réseau. Dans ce contexte, le partenariat Glasswing-Anthropic n'est pas un scandale — c'est une réalité de marché logique. Mais pour les décideurs IT européens, le laisser s'imposer par défaut serait une forme de négligence stratégique.

La vraie question n'est pas « faut-il utiliser des outils américains ? » Elle est : « savons-nous exactement ce que nous acceptons en le faisant, et avons-nous consciemment choisi cette option plutôt que subi ? »

Ce sont deux postures très différentes. Et en 2026, la différence entre les deux commence à se mesurer en termes de conformité réglementaire, de risques assurantiels, et parfois de clauses de marchés publics. Le temps où cette question pouvait attendre est probablement derrière nous.

Cet article vous a été utile ?

Recevez chaque vendredi nos analyses sur les alternatives souveraines SaaS. Pas de spam.

Pas de spam. Désinscription en un clic. Données hébergées en Europe.

Glasswing Anthropic : souveraineté cybersécurité Europe | Payload Website Template | RiffLab Media