RiffLab Media

DeepSeek open source : l'IA chinoise qui dérange les certitudes européennes

Date Published

# DeepSeek open source : l'IA chinoise qui dérange les certitudes européennes

Pendant des années, la question de la souveraineté numérique en matière d'IA se résumait à un choix binaire : OpenAI ou Google. Puis Mistral a ouvert une troisième voie, européenne, prometteuse mais encore fragile face aux moyens déployés outre-Atlantique. Aujourd'hui, DeepSeek redistribue les cartes d'une façon que personne n'avait vraiment anticipée — et pas nécessairement dans la direction qu'on espérait.

Ce qui s'est passé, et pourquoi ça compte

DeepSeek n'est pas une startup émergente. C'est le laboratoire IA d'un fonds spéculatif chinois, High-Flyer, qui a progressivement publié ses modèles en open source depuis 2024. Avec V4, la démarche atteint une maturité qui force le respect technique : un modèle capable de rivaliser, sur plusieurs benchmarks publics, avec les meilleurs modèles propriétaires américains — tout en étant déployable sur une infrastructure que vous contrôlez.

Le fait marquant, c'est l'architecture. DeepSeek repose sur une approche Mixture of Experts (MoE) particulièrement efficiente, qui permet d'obtenir des performances élevées avec une empreinte computationnelle réduite comparée aux modèles denses de même gabarit. En clair : vous pouvez faire tourner des choses sérieuses sans avoir accès aux clusters de calcul d'un hyperscaler.

Pourquoi maintenant ? Parce qu'en 2026, plusieurs facteurs convergent. Les restrictions américaines sur l'export de GPU haut de gamme vers la Chine ont paradoxalement stimulé l'ingéniosité des équipes chinoises sur l'optimisation matérielle. L'Europe, elle, a adopté l'AI Act, ce qui crée de nouvelles contraintes — et de nouvelles opportunités — pour quiconque peut documenter précisément ce qui se passe à l'intérieur d'un modèle. Et la dépendance aux APIs propriétaires commence à peser concrètement dans les bilans : pas seulement en coût, mais en risque contractuel et en exposition des données.

La promesse et le piège

Avant d'aller plus loin, posons la question directement : DeepSeek open source est-il vraiment une alternative souveraine pour une entreprise européenne ?

La réponse honnête est : en partie, sous conditions, avec les yeux ouverts.

Ce qui plaide pour : Les poids du modèle sont publics. Vous pouvez les télécharger, les auditer — du moins l'architecture, pas les données d'entraînement —, les héberger où vous le souhaitez, les fine-tuner sur vos données internes. Une fois déployé sur votre infrastructure ou celle d'un cloud provider européen, vos données ne transitent plus vers des serveurs américains ou chinois. C'est une rupture réelle avec le modèle SaaS qui prévaut chez OpenAI ou Anthropic.

Ce qui mérite d'être questionné : L'open source ne règle pas tout. Les données d'entraînement de DeepSeek ne sont pas publiques. On ne sait pas précisément sur quoi le modèle a été entraîné, ni quels biais culturels, politiques ou factuels il peut porter. La question des backdoors — théoriquement possible dans n'importe quel logiciel, open source ou non — est régulièrement soulevée, même si elle reste non documentée à ce jour pour DeepSeek. Et surtout : la gouvernance du projet reste celle d'une entité privée chinoise, sans équivalent des garanties juridiques qu'offre, même imparfaitement, un acteur soumis au RGPD.

Il faut être lucide : choisir DeepSeek pour des raisons de souveraineté, c'est substituer une dépendance américaine à une dépendance — plus diffuse mais réelle — envers un écosystème chinois. Ce n'est pas neutre.

Ce que ça change concrètement pour vous

Pour un DSI d'ETI en 2026, la vraie valeur de DeepSeek n'est peut-être pas là où on l'attend.

**L'effet de levier sur la négociation.** Avoir un modèle open source crédible dans votre arsenal change votre position vis-à-vis d'OpenAI ou de Microsoft. Vous n'êtes plus captif. Vous pouvez avoir une conversation différente sur les contrats, les SLA, les conditions de traitement des données. Même si vous n'utilisez jamais DeepSeek en production, le fait de pouvoir dire « nous avons évalué l'alternative » pèse.

L'AI Act comme filtre de décision. La réglementation européenne impose une traçabilité sur les systèmes IA à risque élevé. Avec un modèle open source déployé en local, vous contrôlez la chaîne de traitement, vous pouvez logger ce que vous voulez, auditer ce que vous voulez. Avec une API propriétaire, vous dépendez de ce que le fournisseur veut bien vous exposer. Pour les use cases sensibles — RH, scoring crédit, aide à la décision médicale — cette différence n'est pas anecdotique.

**Le coût réel de l'inférence locale.** Ne vous laissez pas aveugler par l'argument « open source = gratuit ». Faire tourner un modèle de la taille de DeepSeek V4 en production, ça demande une infrastructure GPU sérieuse. Si vous n'avez pas cette expertise en interne, vous aurez besoin d'un partenaire. Des acteurs comme Scaleway ou Hetzner proposent désormais des offres GPU adaptées à ce type de déploiement, avec des datacenters en Europe. Mais la facture d'exploitation peut surprendre ceux qui comparent naïvement avec le coût par token d'une API.

La fenêtre de compétence interne. C'est peut-être le point le plus sous-estimé. Déployer et maintenir un LLM open source, ça construit une compétence en interne qui n'existait pas avec les APIs clés-en-main. C'est un investissement, pas une économie à court terme. Mais c'est aussi une forme d'indépendance qui se construit dans la durée.

Ce que ça ne règle pas

Soyons directs sur les illusions à ne pas entretenir.

DeepSeek n'est pas une solution clé-en-main. Les équipes qui ont fait des déploiements sérieux en 2025-2026 témoignent d'une complexité opérationnelle réelle : gestion des versions, fine-tuning, RAG, monitoring des dérives de comportement du modèle... Ce n'est pas le territoire du DSI qui manque de ressources techniques.

La souveraineté ne se décrète pas par le choix d'un modèle. Elle se construit dans une chaîne complète : où vos données sont hébergées, qui a accès à vos logs, dans quel pays sont basées les entités avec lesquelles vous avez un contrat. Un DeepSeek hébergé sur AWS us-east-1 avec vos données d'entreprise ne vous offre pas plus de souveraineté qu'un ChatGPT Enterprise bien configuré.

Et enfin : la qualité sur vos cas d'usage spécifiques reste à vérifier. Les benchmarks généraux sont utiles pour comparer des architectures, pas pour valider qu'un modèle répondra correctement à vos besoins métier en français, dans votre secteur, avec votre terminologie interne. L'évaluation sur données réelles reste incontournable.

Pistes concrètes pour ne pas se tromper

Si vous êtes DSI ou CTO d'une PME ou ETI et que vous lisez cet article en vous demandant quoi faire, voici ce que je ferais à votre place.

Commencez par identifier vos cas d'usage à risque. Quels traitements IA envoyez-vous aujourd'hui vers des APIs externes ? Y a-t-il des données que vous n'auriez pas envoyées là si vous y aviez vraiment réfléchi ? Ce recensement est un préalable à tout, indépendamment de DeepSeek.

Montez un POC ciblé, pas un projet de transformation. Choisissez un use case interne, non critique, qui a une vraie valeur : synthèse de documents internes, assistance à la rédaction de rapports techniques, FAQ interne. Déployez DeepSeek sur une infrastructure européenne contrôlée. Mesurez. Comparez. Vous aurez une réponse factuelle au bout de quelques semaines, pas une opinion.

Posez la question de la gouvernance à votre conseil juridique. L'origine chinoise du modèle, même open source, mérite une analyse de risque juridique sérieuse. Pas pour écarter par principe, mais pour documenter votre décision. Dans un contexte d'AI Act, cette documentation sera de toute façon nécessaire.

Ne faites pas cavalier seul si vous manquez de ressources MLOps. Plusieurs ESN européennes ont développé des pratiques sérieuses autour du déploiement de modèles open source. S'appuyer sur ce type de partenaire pour les phases initiales est une décision raisonnable, à condition de ne pas recréer une dépendance similaire à celle que vous cherchez à éviter.

La vraie question que DeepSeek pose à l'Europe

Au fond, DeepSeek révèle quelque chose d'inconfortable : l'Europe a produit de la réglementation sur l'IA (l'AI Act), de bons modèles (Mistral reste une référence sérieuse), mais elle n'a pas encore produit d'infrastructure de calcul souveraine à la hauteur des enjeux. Ni les GPU, ni les clusters, ni l'écosystème industriel qui permettrait à des PME et ETI de déployer des IA puissantes sans dépendre de choix géopolitiques extérieurs.

Dans ce contexte, DeepSeek est à la fois une opportunité tactique et un révélateur stratégique. Il permet à des entreprises européennes de s'affranchir partiellement des APIs américaines. Mais il le fait en les rendant potentiellement dépendantes d'un autre acteur extérieur, avec des risques différents mais réels.

La bonne question n'est donc pas « faut-il utiliser DeepSeek ? » mais « quelle est notre stratégie IA à trois ans, et quelles dépendances sommes-nous prêts à accepter — et pourquoi ? »

C'est cette conversation-là que DeepSeek V4 oblige enfin à avoir sérieusement. Et c'est peut-être là sa contribution la plus durable au débat européen.

Cet article vous a été utile ?

Recevez chaque vendredi nos analyses sur les alternatives souveraines SaaS. Pas de spam.

Pas de spam. Désinscription en un clic. Données hébergées en Europe.