RiffLab Media

« Former des talents souverains, c'est aussi leur apprendre à refuser certaines dépendances »

Date Published

# « Former des talents souverains, c'est aussi leur apprendre à refuser certaines dépendances »

*En 2026, les grandes écoles du numérique annoncent toutes adapter leur pédagogie à l'IA. L'ESGI ne fait pas exception. Mais former à l'IA, sur quels outils, avec quels modèles, pour servir quelle vision ? Nous avons interrogé un DSI d'ETI industrielle française, engagé depuis trois ans dans des partenariats pédagogiques avec plusieurs écoles du numérique. Ses réponses sont directes — parfois inconfortables.*


RiffLab : Quand une école comme l'ESGI annonce adapter sa pédagogie à l'IA, quelle est votre première réaction — côté terrain ?

Ma première réaction, c'est de poser une question très simple : adapter à l'IA, d'accord — mais à *quelle* IA ? Parce que si on forme des jeunes à utiliser des interfaces propriétaires d'acteurs américains, à raisonner dans des environnements fermés, à optimiser des prompts pour des boîtes noires dont on ne connaît ni les données d'entraînement ni la politique de rétention des données — ce n'est pas de la formation à l'IA souveraine. C'est du recrutement externalisé pour des écosystèmes qui n'ont aucun intérêt à voir émerger des alternatives européennes.

Donc oui, je salue l'intention. Mais l'intention ne suffit pas. Ce qui compte, c'est le détail du cursus : quels modèles, quels environnements d'entraînement, quelle place accordée aux infrastructures européennes. Et sur ce point, les annonces restent souvent très floues.


RiffLab : Vous êtes sévère. Les écoles n'ont-elles pas simplement l'obligation de former sur les outils que les entreprises utilisent — y compris les outils américains ?

C'est l'argument classique, et il est partiellement recevable. Oui, un jeune diplômé qui arrive chez moi doit être opérationnel. Oui, une partie de notre SI fait encore tourner des briques logicielles dont je préférerais ne pas dépendre. Je ne vis pas dans un monde idéal.

Mais il y a une différence énorme entre *connaître* un outil dominant et *ne savoir travailler qu'avec lui*. Ce que j'attends d'un bon ingénieur en 2026, c'est précisément la capacité à évaluer un outil de manière critique — à comprendre ce qu'il suppose comme dépendance, comme risque de souveraineté, comme coût caché. Si un diplômé est incapable de me dire pourquoi on pourrait vouloir déployer un modèle en inférence locale plutôt que d'envoyer des données dans un cloud hors sol européen, il me manque quelque chose d'essentiel.

Les écoles ont une responsabilité pédagogique, pas seulement une responsabilité d'employabilité immédiate. Ce n'est pas la même chose.


RiffLab : L'ESGI parle de « talents souverains ». C'est du marketing ou une vraie orientation pédagogique ?

Honnêtement ? Pour l'instant, je ne sais pas. Et c'est ça le problème.

Le mot « souverain » est devenu un label attrape-tout. Tout le monde s'en réclame — y compris des acteurs qui, dans le même temps, signent des partenariats de contenu avec des géants américains, utilisent leurs APIs pour leurs environnements de TP, ou intègrent leurs certifications dans leurs cursus comme si elles étaient neutres.

Ce que j'appelle former un talent souverain, c'est lui apprendre à poser les bonnes questions avant de choisir un outil. Quel est le régime juridique des données ? Où sont les serveurs ? Qui contrôle les mises à jour du modèle ? Y a-t-il une alternative européenne techniquement viable ? Si ce questionnement est ancré dans la formation dès la première année, alors oui, on parle de quelque chose de réel. Si c'est juste un cours de sensibilisation en fin de cursus, c'est du greenwashing souverainiste.


RiffLab : Sur le marché européen du talent IA, qui s'en sort et qui décroche selon vous ?

Il y a une fracture très nette qui se dessine, et elle ne suit pas les frontières nationales qu'on imagine.

Ce qui s'en sort, ce sont les filières qui ont compris que la valeur n'est pas dans la consommation d'IA, mais dans la maîtrise des pipelines — données, fine-tuning, déploiement, gouvernance. Des pays comme l'Allemagne ou les Pays-Bas ont des filières d'ingénierie qui intègrent depuis longtemps une culture du contrôle technique et de la rigueur sur la donnée. Ça les place mieux pour produire des profils capables de travailler avec des modèles ouverts, sur des infrastructures maîtrisées.

Ce qui décroche, c'est là où on a surinvesti dans la formation à l'usage — apprendre à utiliser des interfaces — plutôt qu'à la compréhension des systèmes. On fabrique des utilisateurs avancés, pas des architectes. Et un utilisateur avancé d'un outil américain, c'est une dépendance qui se renouvelle à chaque promotion sortante.

La France est dans une position ambiguë : on a d'excellents chercheurs, des laboratoires de niveau mondial, mais une école de pensée pédagogique encore trop attirée par le prestige des certifications américaines.


RiffLab : Vous évoquez les infrastructures. Est-ce vraiment le rôle d'une école de former à des choix d'infrastructure ou de gouvernance ? N'est-ce pas plutôt le travail des entreprises elles-mêmes ?

Si on se pose encore cette question en 2026, on a perdu plusieurs années.

La gouvernance de l'IA n'est pas une couche qu'on ajoute après. C'est une compétence transversale qui doit être présente à chaque niveau de décision — dans le choix d'un modèle, dans l'architecture d'un pipeline, dans la rédaction d'un appel d'offres. Si un architecte logiciel ne comprend pas les implications de souveraineté d'un choix technique, il me crée des problèmes que je ne découvrirai que deux ou trois ans plus tard — souvent au pire moment.

Donc oui, c'est le travail des entreprises de former leurs collaborateurs en continu. Mais les fondations doivent être posées à l'école. On ne peut pas demander à une ETI de taille intermédiaire de ré-alphabétiser des ingénieurs sur des notions qui auraient dû être vues en formation initiale. On n'en a ni le temps ni les ressources.


RiffLab : Concrètement, qu'est-ce qui manque dans les cursus actuels pour produire ces fameux « talents souverains » ?

Trois choses, sans hésiter.

Premièrement, une culture du droit et de la régulation technologique intégrée dès le début — pas comme matière annexe, mais comme prisme permanent. Le règlement européen sur l'IA, les implications du RGPD dans un contexte d'entraînement de modèles, les clauses contractuelles qui engagent un SI sur dix ans : ce n'est pas que du droit, c'est de la stratégie technologique.

Deuxièmement, une exposition réelle à des environnements non-américains. Pas pour des raisons idéologiques, mais parce qu'un ingénieur qui n'a travaillé qu'avec un seul écosystème n'est pas capable d'évaluer les alternatives. Il reproduit mécaniquement ce qu'il connaît. C'est un risque pour l'entreprise.

Troisièmement — et c'est peut-être le plus difficile — apprendre à dire non. À refuser une intégration qui crée une dépendance injustifiée, à challenger une décision d'achat logiciel, à poser des questions qui dérangent en comité de direction. Former un talent souverain, c'est aussi lui donner le vocabulaire et la légitimité pour résister aux chemins de moindre résistance. Et ça, ça ne s'apprend pas dans un cours magistral. Ça se transmet par la culture d'un établissement.


*Propos recueillis dans le cadre d'un cycle d'entretiens sur la formation au numérique souverain en Europe. L'interlocuteur a souhaité conserver l'anonymat.*

Cet article vous a été utile ?

Recevez chaque vendredi nos analyses sur les alternatives souveraines SaaS. Pas de spam.

Pas de spam. Désinscription en un clic. Données hébergées en Europe.