RiffLab Media

IA générative et search : quand Google perd le monopole de l'intention

Date Published

IA générative et search : quand Google perd le monopole de l'intention

Depuis deux ans, quelque chose s'est cassé dans la relation entre les entreprises et leurs moteurs de recherche. Pas spectaculairement, pas du jour au lendemain — mais de manière suffisamment profonde pour que beaucoup de DSI se retrouvent aujourd'hui à gérer un problème qu'ils n'avaient pas anticipé : leurs collaborateurs cherchent ailleurs, avec d'autres outils, et parfois sans que la DSI en soit informée.

La question n'est plus de savoir si l'IA générative transforme la recherche d'information. C'est fait, c'est acté. La vraie question, celle qui mérite qu'on s'y attarde, c'est de comprendre *pourquoi* ce basculement crée autant de friction dans les organisations européennes — et ce que les équipes IT peuvent raisonnablement faire pour reprendre la main.

Ce qui a changé, concrètement

Pendant vingt ans, le paradigme du search était simple : tu tapes des mots-clés, tu obtiens une liste de liens, tu cliques, tu lis, tu construis ta propre synthèse. Un processus linéaire, prévisible, que les entreprises avaient appris à encadrer — avec des proxies, des politiques d'usage, des outils de monitoring.

L'IA générative a cassé ce modèle en introduisant ce que certains chercheurs en sciences cognitives appellent la « réponse directe ». Au lieu d'une liste de sources à explorer, l'utilisateur obtient une synthèse déjà mâchée, construite à partir de sources qui ne sont pas toujours visibles ni vérifiables. Le moteur de recherche ne pointe plus vers l'information — il *interprète* la question et *produit* une réponse.

Pour un collaborateur lambda, c'est un gain de temps évident. Pour un DSI ou un responsable conformité, c'est une boîte noire qui s'est glissée dans les flux de travail.

En 2026, cette évolution s'est accélérée sur plusieurs fronts simultanément. Les grands acteurs du search traditionnel — Google avec AI Overviews, Microsoft avec Copilot intégré à Bing et à la suite 365 — ont industrialisé la réponse générée. Perplexity a capté une part significative des usages professionnels en promettant des réponses sourcées en temps réel. Et en parallèle, une nouvelle génération d'outils de « search d'entreprise » propulsés par des modèles de langage a commencé à émerger, promettant de connecter bases de connaissances internes et capacités génératives.

Résultat : les collaborateurs des entreprises européennes naviguent aujourd'hui dans un écosystème fragmenté, avec des outils qui fonctionnent bien individuellement mais qui posent des questions sérieuses de gouvernance, de traçabilité et — pour les entreprises soumises à des réglementations sectorielles strictes — de conformité.

Le problème que les DSI ne voient pas toujours venir

Il y a un angle mort dans beaucoup d'organisations. On a beaucoup parlé des risques liés à ChatGPT et aux modèles grand public — le « shadow AI », les données sensibles qui partent dans des systèmes tiers, les hallucinations qui se retrouvent dans des documents officiels. Les équipes sécurité ont commencé à traiter ce sujet.

Mais le search génératif pose un problème différent, plus subtil : il ne s'agit pas d'un outil qu'on utilise *à la place* du système d'information, mais d'un outil qui se superpose à lui. Quand un acheteur interroge Copilot pour synthétiser un contrat fournisseur, quand un ingénieur utilise Perplexity pour trouver une solution technique à partir de documentation interne et externe mélangées, quand un juriste fait une recherche réglementaire via un assistant IA — dans tous ces cas, la frontière entre information interne et information externe devient poreuse.

Cette porosité a des conséquences concrètes. D'abord sur la qualité de l'information elle-même : une réponse générée peut sembler authoritative tout en étant partiellement fausse, ou en mélangeant des réglementations qui ne s'appliquent pas au même périmètre. Ensuite sur la traçabilité : en cas d'audit ou de litige, reconstituer la chaîne de décision devient beaucoup plus compliqué si les informations qui l'ont alimentée viennent d'un assistant IA sans log structuré. Enfin, sur la souveraineté des données : pas au sens dramatique du terme, mais dans le sens très pratique de savoir quelles informations de l'entreprise ont transité par quels systèmes, hébergés où, régis par quelles conditions contractuelles.

Ce n'est pas un problème hypothétique. Ce sont des questions que des DSI d'ETI industrielles, de cabinets de conseil ou d'acteurs de la santé commencent à poser à leurs équipes — souvent après coup, quand le problème s'est déjà matérialisé.

Reprendre le contrôle : ce que ça signifie vraiment

« Reprendre le contrôle » ne veut pas dire interdire les outils génératifs — cette bataille est perdue d'avance et contre-productive. Les collaborateurs qui ont accès à des outils plus efficaces les utilisent, que la DSI le veuille ou non. La vraie question est de savoir si l'organisation peut *façonner* cet usage plutôt que de le subir.

Concrètement, cela passe par plusieurs niveaux de réflexion.

Le premier niveau est éditorial, pas technique. Avant de choisir un outil, il faut définir ce qu'on veut que le search génératif fasse *dans* l'organisation. Répondre à des questions sur la documentation interne ? Assister la veille réglementaire ? Accélérer l'onboarding ? Ces cas d'usage ont des exigences très différentes en termes de qualité de données, de mise à jour, de périmètre d'accès. Une organisation qui déploie un outil de search génératif sans avoir répondu à ces questions se retrouve avec un système puissant mais mal calibré — et donc peu utilisé, ou utilisé de façon non maîtrisée.

Le deuxième niveau porte sur la qualité des données en entrée. C'est probablement le sujet le plus sous-estimé. Un moteur de search génératif, qu'il soit hébergé en interne ou en SaaS, n'est que le reflet de ce qu'on lui donne à digérer. Des bases documentaires mal structurées, des versions contradictoires de procédures, des wikis internes abandonnés depuis trois ans — tout cela se retrouvera dans les réponses, et souvent sans signal d'alerte pour l'utilisateur. Plusieurs entreprises qui ont tenté de déployer des solutions de « knowledge search » sur leur documentation interne ont découvert à cette occasion à quel point leur base de connaissances était dans un état problématique. C'est inconfortable, mais c'est une information utile.

Le troisième niveau concerne le choix des briques technologiques. Et là, les équipes européennes ont aujourd'hui plus d'options qu'elles ne le croient. Des acteurs comme Elasticsearch — qui a fortement investi sur les capacités de search sémantique et d'augmentation par LLM — permettent de construire des pipelines de recherche augmentée par IA tout en gardant la main sur l'infrastructure. Des modèles d'embedding et de génération peuvent être déployés on-premise ou en cloud européen, ce qui résout une partie des questions de résidence des données. Ce n'est pas trivial à mettre en œuvre, mais pour des organisations avec des contraintes réglementaires fortes — secteur financier, santé, défense — c'est souvent la seule approche viable.

Du côté des solutions plus packagées, certains acteurs spécialisés dans le search d'entreprise ont intégré des couches génératives tout en maintenant des architectures qui permettent l'hébergement européen. Glean, par exemple, qui s'est positionné sur le « work search » connectant les outils SaaS d'une organisation, a étendu ses capacités génératives tout en proposant des options de déploiement plus contrôlées. Ce n'est pas une recommandation — les choix dépendent trop du contexte de chaque organisation — mais c'est le type d'acteur à examiner sérieusement plutôt que de se laisser embarquer par défaut dans l'écosystème Microsoft ou Google, simplement parce qu'il est déjà là.

Ce que l'IA Act change dans l'équation

Il serait artificiel de ne pas mentionner le cadre réglementaire, parce qu'il commence à avoir des effets concrets sur les décisions d'achat. L'AI Act européen, dont les premières obligations sont entrées en vigueur, introduit des exigences de transparence et de documentation pour les systèmes d'IA utilisés dans certains contextes à risque.

Pour la plupart des cas d'usage de search en entreprise, on n'est pas dans les catégories à risque élevé — mais les obligations de traçabilité et de documentation qui s'appliquent aux fournisseurs commencent à peser dans les négociations contractuelles. Les DSI qui ont l'habitude de négocier leurs contrats SaaS vont devoir ajouter de nouvelles clauses dans leur checklist : quels logs sont conservés ? Pendant combien de temps ? Le fournisseur peut-il démontrer que son modèle ne s'est pas entraîné sur des données client sans consentement ? Ces questions, qui semblaient théoriques il y a deux ans, font aujourd'hui partie des discussions réelles avec les acheteurs IT des grandes entreprises européennes.

En guise de conclusion : une question ouverte

Le basculement vers le search génératif est réel, profond, et probablement irréversible dans ses grandes lignes. La question n'est pas de résister au mouvement mais de décider à quel endroit de la chaîne l'organisation veut garder la main — sur les données, sur le modèle, sur l'interface, sur les logs.

Ce qui me frappe, en parlant avec des DSI d'ETI ces derniers mois, c'est que beaucoup ont l'impression que ce sujet est trop complexe ou trop mouvant pour être abordé autrement que par l'attente. « On verra quand les choses se stabilisent. » C'est compréhensible. Mais c'est aussi la posture qui, historiquement, a conduit les organisations à subir des choix faits par d'autres — leurs fournisseurs SaaS, leurs éditeurs de suite bureautique, leurs collaborateurs les plus tech-savvy.

L'IA générative ne va pas se stabiliser au sens où on l'entend. Elle va continuer à évoluer. La stabilité que les DSI cherchent, elle ne viendra pas du marché — elle viendra de la clarté que chaque organisation aura construite sur ses propres cas d'usage, ses propres contraintes, et les compromis qu'elle est prête à accepter.

C'est un travail de fond. Mais c'est aussi le seul qui tienne dans la durée.

Cet article vous a été utile ?

Recevez chaque vendredi nos analyses sur les alternatives souveraines SaaS. Pas de spam.

Pas de spam. Désinscription en un clic. Données hébergées en Europe.

IA générative et search : l'enjeu pour les DSI européens | Payload Website Template | RiffLab Media