Perte de trafic SEO en 2025-2030: France, Espagne, USA face à Google IA
Chute ou évolution du trafic organique depuis 2025 ? France, Espagne, USA face à Google IA et AI Overviews : comprendre ce qui change vraiment en SEO et poser le bon diagnostic.
VEILLE MARKETINGWEBMARKETING
LYDIE GOYENETCHE
1/24/202648 min lire


DE LA PRATIQUE A L'ANALYSE SEO INTERNATIONALE
En tant que consultante SEO au Pays basque, j’observe ces évolutions non seulement à travers l’analyse des données internationales, mais aussi dans des accompagnements concrets, au plus près des réalités locales. Cet article s’inscrit dans cette continuité entre analyse stratégique et pratique de terrain ; pour ceux qui souhaitent aller plus loin, je détaille ici mon offre de consultante SEO au Pays basque.
Il est assez courant de voir des fluctuations de trafic SEO d’une semaine sur l’autre. Une légère baisse après un week-end prolongé, un pic après la publication d’un bon article, un changement de position sur un mot-clé clé : tout cela fait partie de la vie normale d’un site. Ce qui affole les webmasters et les dirigeants, en revanche, ce sont les chutes brutales : –30, –50, parfois –80 % de trafic en quelques jours, sans action apparente de leur part. Et en effet il faut le surveiller, car certains sites peuvent se voir désindexer de Google soit pour une erreur technique ou par choix de Google. Et en effet l'irruption de Google IA dans les SERP, qu'AI Overview y soit déployé ou non peut avoir une incidence.
Certaines pages peuvent sortir de l’index à cause d’un problème technique… ou parce que Google juge qu’elles n’apportent pas assez de valeur/clarité d’intention dans un index devenu plus sélectif.
Cela n’a rien à voir avec la monétisation : un blog, un site associatif ou une paroisse peuvent être touchés simplement parce que l’algorithme, qui gère un index de plus en plus sélectif, choisit de ne conserver que les contenus jugés réellement utiles. C'est pourquoi l'essence même de notre entreprise est de vous générer un trafic qualifié au niveau national et international.
Pour les jeunes sites, ou pour ceux qui viennent de revoir leur marketing de contenu et leur positionnement dans l’écosystème Google, ce phénomène est encore plus déroutant.
À chaque core update, on peut avoir l’impression que le robinet se ferme d’un coup : le trafic s’interrompt, les impressions s’effondrent et, pendant quelques jours, les données de la Search Console semblent « gelées » ou incohérentes. Depuis 2025, Google lui-même a reconnu que la prise en compte du Mode IA / AI Overviews dans les rapports pouvait modifier les impressions et les clics visibles dans Search Console, en regroupant certaines requêtes IA avec les données de recherche web classiques. De l’extérieur, cela ressemble à une panne. En réalité, c’est souvent le symptôme d’un recalcul profond des positions, des intentions de recherche et des signaux de qualité.
En parallèle, l’arrivée des AI Overviews (les fameux aperçus IA tout en haut de la SERP) a ajouté une couche supplémentaire d’instabilité. Aux États-Unis, où la fonction est déployée depuis mai 2024, plusieurs études relayées par Search Engine Land montrent une baisse significative des clics sur les résultats organiques lorsque l’AI Overview est présent : Ahrefs mesure par exemple une chute d’environ 34,5 % du CTR en position 1, tandis qu’Amsive observe une baisse moyenne d’environ 15 % sur de larges panels de mots-clés, avec des pertes bien plus fortes sur certaines requêtes informationnelles non brandées. D’autres analyses (Seer Interactive, éditeurs de presse, associations d’éditeurs européens) rapportent des baisses de clics pouvant dépasser 60 % sur certains types de requêtes, voire jusqu’à 80 % pour des médias d’actualité très dépendants du trafic Google.
Depuis le printemps 2025, Google a commencé à déployer ces AI Overviews dans plusieurs pays d’Europe, notamment en Espagne, tout en préparant leur extension progressive à l’ensemble de l’Espace économique. Dans le même temps, la core update de mars 2025 a durci les critères de qualité et de fiabilité des contenus, entraînant des mouvements de visibilité parfois violents, y compris dans les pays où l’AI Overview n’est pas encore activé dans la langue locale, comme la France.
Autrement dit, ce que beaucoup de sites perçoivent comme une « perte de trafic inexpliquée » est en réalité le résultat combiné de trois facteurs :
– l’arrivée de réponses IA qui captent une partie des clics,
– des mises à jour algorithmiques plus fréquentes et plus sélectives,
– et une redéfinition silencieuse de la manière dont Search Console mesure et agrège les performances.
Avant d’accuser votre SEO : poser un diagnostic fiable en 3 couches
Quand un site perd du trafic organique en France, en Espagne et aux États-Unis, la tentation est immédiate : “un concurrent a publié mieux” ou “j’ai cassé quelque chose”. Parfois c’est vrai, mais très souvent, vous subissez surtout un déplacement des usages et un déplacement de la SERP. Pour éviter les fausses pistes, commencez par trier la baisse dans l’ordre suivant. En effet l'une des motivations pour faire un site web est de générer des prospects qualifiés, même si parfois il y a un écart considérable entre la motivation, ce qui est mis en oeuvre et le résultat. Alors qu'elle a été votre motivation à vous?
Couche 1 — Le trafic “SEO” baisse parce que… la recherche s’est déplacée hors de Google
Sur mobile, l’utilisateur ne “cherche” plus toujours : il découvre. Instagram, YouTube, TikTok captent une partie des parcours d’information grand public, surtout sur les requêtes froides (culture, lifestyle, conseils, inspiration, comparatifs simples). Cette bascule est portée par deux réalités :
Le mobile est devenu majoritaire dans l’usage du web (à l’échelle mondiale, StatCounter mesure ~54% mobile vs ~46% desktop fin 2025).
Une partie de la recherche (notamment chez les jeunes) se fait sur les réseaux : une étude citée par Forbes (données SOCi) indique que chez les 18–24 ans, 67% disent utiliser Instagram pour chercher et 62% TikTok.
Conséquence diagnostic : si votre baisse touche surtout des requêtes informationnelles grand public, il est possible que le “problème” ne soit ni technique ni concurrentiel, mais une migration des habitudes (Google n’est plus l’unique porte d’entrée).
➡️ Test rapide : dans Search Console, segmentez mobile vs desktop. Si la baisse est majoritairement mobile, ce scénario devient probable.
Couche 2 — Aux USA et en Espagne : vous n’avez pas perdu Google, vous avez perdu… les clics
Même en restant bien classé, vous pouvez perdre des clics à cause des AI Overviews et plus largement des fonctionnalités de SERP qui répondent “avant” les liens bleus.
Ahrefs observe une forte baisse de CTR sur les requêtes qui déclenchent un AI Overview : sur leurs données, le CTR moyen en position 1 pour ces requêtes passe de 0,073 (mars 2024) à 0,026 (mars 2025).
Search Engine Land synthétise également deux études convergentes : les AI Overviews “volent” des clics, surtout sur les requêtes non brandées et informationnelles.
Conséquence diagnostic : vous pouvez observer une baisse de trafic sans grosse chute de position, simplement parce que Google “résout” la question en haut de page.
Ce type de ratio n’est pas le signe d’un problème SEO classique, ni d’un manque de pertinence du contenu. Il indique au contraire que la requête est fortement informationnelle et que la réponse est largement synthétisée en amont par Google, via ses mécanismes de résumé algorithmique (AI Overview ou équivalent), même lorsque celui-ci n’est pas explicitement visible pour tous les utilisateurs.
Dans ce contexte, l’internaute obtient une réponse suffisante pour comprendre le sujet sans cliquer. Et lorsqu’il souhaite approfondir, comparer ou reformuler la question, il est de plus en plus fréquent qu’il se tourne non pas vers un autre lien bleu, mais vers un chatbot conversationnel (type assistant IA), afin de poursuivre sa réflexion de manière interactive.
À petite échelle, mes propres données illustrent très bien ce phénomène.
Sur la requête francophone « structurer un modèle économique sans produit ni marché », affichée depuis l’Inde, mon site apparaît en première position, avec 577 impressions… pour un seul clic. Fait intéressant : le seul clic observé sur cette requête provient d’une formulation explicitement contrainte par la langue (=fr). Ce type de paramétrage limite la capacité de l’algorithme à produire une synthèse translinguistique et globale, ce qui redonne mécaniquement de la valeur aux résultats organiques classiques.
Autrement dit, la visibilité existe toujours — parfois même renforcée — mais le clic n’est plus l’indicateur principal de l’usage réel du contenu.
➡️ Test rapide : sur vos 10 requêtes qui perdaient le plus de clics aux USA/ES, vérifiez manuellement la SERP : AI Overview présent ? vidéos ? “People also ask” ? carrousels ? Si oui, le CTR est mécaniquement sous pression.
Attention mesure : Google explique que les fonctionnalités IA sont comptabilisées dans les données Search Console et ne sont pas toujours isolées comme un segment à part.
Couche 2 bis: les positions fantômes avec Google
Autrement dit, avant l’AI Overview, une position fantôme était un test de ranking. Aujourd’hui, elle est souvent le signe d’un test d’usage : Google évalue la cohérence sémantique, la stabilité éditoriale et l’intégration d’un contenu dans son écosystème global, avant de décider s’il doit être exposé, synthétisé ou simplement conservé comme référence latente.
Ce glissement explique pourquoi certaines pages semblent “bien classées mais invisibles” : la visibilité existe, mais elle ne se matérialise plus systématiquement par du trafic. Le contenu est vu, lu et parfois mobilisé par l’algorithme, sans que le clic ne soit nécessaire. Dans ce contexte, interpréter ces positions comme des acquis serait une erreur. Elles signalent moins une performance immédiate qu’une phase d’évaluation, préalable à une stabilisation éventuelle — ou à une disparition silencieuse si le contenu n’apporte pas suffisamment de clarté ou de valeur dans un index devenu plus sélectif.
Couche 3 — En B2B : le parcours de décision passe de plus en plus par des chatbots (et ça change les “clics”)
En B2B, beaucoup d’internautes ne font plus 15 recherches successives sur Google : ils posent une question à un chatbot, affinent, demandent des options, puis ouvrent quelques liens pour vérifier vite fait (parfois avec un temps de lecture faible). Résultat : la demande existe, mais le trafic organique “classique” peut sembler plus mou.
Conséquence diagnostic : si vos pages B2B apparaissent encore en impression, mais que les clics stagnent, ce n’est pas forcément un déclassement : c’est un changement de séquence de lecture (IA → validation rapide → retour IA).
➡️ Test rapide : dans Analytics, regardez l’évolution des sources “chatgpt.com” (tu en as déjà), et le comportement : pages consultées, profondeur, retour. Chez moi, le fait d’avoir déjà des visites depuis ChatGPT est un signal que ce scénario existe concrètement.
La règle d’or : si votre site n’aide plus Google à “résoudre” une intention, vous perdez en visibilité stratégique
Google structure de plus en plus ses résultats autour de l’intention (informationnelle, navigationnelle, transactionnelle, locale, etc.) et du format le plus utile dans la SERP (vidéo, liste, résumé IA, forum…). Si la structure de vos pages ne permet pas à Google d’identifier clairement ce que vous résolvez, pour qui, à quel moment du parcours, vous errez… et vous décrochez.
Le nouveau clivage des SERP: information internationale sous IA, transaction locale verrouillée
Depuis les core updates successives de Google et le déploiement progressif des AI Overviews, un changement de paradigme s’est opéré dans la structure même des pages de résultats. Google tend désormais à dissocier de plus en plus nettement deux univers de recherche : les SERP informationnelles, souvent internationales, et les SERP locales transactionnelles, centrées sur la conversion immédiate. Cette séparation, qui existait déjà partiellement avant 2024, produit aujourd’hui des effets visibles et mesurables sur le trafic organique, en particulier dans les secteurs dépendants du tourisme.
SERP informationnelles : une économie de la synthèse pilotée par l’IA
Les requêtes informationnelles de masse — que faire à…, meilleur moment pour visiter…, idées de séjour, conseils voyage — sont de plus en plus absorbées par les mécanismes de synthèse algorithmique. Aux États-Unis et en Espagne, où les AI Overviews sont désormais actifs, plusieurs études convergent vers le même constat : la présence d’un résumé IA en haut de la SERP entraîne une chute significative du taux de clic organique.
Selon Ahrefs, sur les requêtes déclenchant un AI Overview, le CTR moyen en position 1 a chuté de plus de 60 % entre 2024 et 2025. SparkToro estime de son côté que plus de 58 % des recherches aux États-Unis n’aboutissent désormais à aucun clic, l’utilisateur se contentant de la réponse affichée par Google. Ces chiffres concernent en priorité les requêtes informationnelles non brandées, typiques des parcours de découverte touristique.
Dans ce contexte, le trafic organique “amont”, historiquement utilisé par les hôtels, restaurants et campings pour se faire connaître via des guides ou des contenus inspirationnels, se raréfie. Le contenu est lu, synthétisé, intégré dans la SERP ou dans des assistants IA… mais il ne génère plus nécessairement de visite sur le site.
SERP locales transactionnelles : visibilité forte, mais accès restreint
À l’inverse, les SERP locales transactionnelles — hôtel à…, restaurant près de…, camping ouvert… — restent relativement protégées des AI Overviews. Google privilégie ici des formats orientés conversion : Google Maps, fiches Google Business Profile, avis clients, photos, horaires, menus.
Ces espaces concentrent l’essentiel de la demande touristique prête à réserver. Mais ils sont aussi extrêmement verrouillés. Les établissements déjà installés, disposant d’un historique d’avis, d’une forte note moyenne et d’une activité régulière sur leur fiche locale, captent l’essentiel de la visibilité. Les plateformes intermédiaires (Booking, TripAdvisor, TheFork, Airbnb) occupent également une place dominante.
Pour les nouveaux entrants ou les établissements récemment repositionnés, l’accès à ces SERP locales est difficile. Les données sectorielles montrent que plus de 70 % des clics locaux se concentrent sur les trois premiers résultats Maps, et que la majorité des utilisateurs ne consultent pas les résultats organiques classiques situés en dessous. Autrement dit, même sans IA générative, la concurrence y est structurellement élevée.
Un effet ciseau pour les acteurs du tourisme
Ce clivage produit un effet ciseau particulièrement pénalisant pour les hôtels, restaurants et campings :
d’un côté, la perte progressive du trafic informationnel international, absorbé par les AI Overviews et les usages IA conversationnels ;
de l’autre, une SERP locale transactionnelle très performante, mais peu accessible aux nouveaux acteurs ou à ceux qui manquent d’antériorité.
La conséquence est directe : baisse du trafic organique global, augmentation de la dépendance aux plateformes et hausse du coût d’acquisition client. Ce phénomène n’est pas lié à un défaut de SEO technique ou à une mauvaise qualité de contenu, mais à une transformation structurelle de l’économie de la visibilité digitale.
Un phénomène ancien, mais désormais systémique
Il serait faux de prétendre que cette séparation n’existait pas avant. Déjà, il y a dix ans, Google distinguait les requêtes informationnelles des requêtes locales. Ce qui change depuis 2024–2025, c’est l’ampleur et la systématisation du phénomène. L’IA rend la synthèse informationnelle quasi instantanée, tandis que la SERP locale devient un espace de plus en plus concurrentiel, orienté vers la transaction immédiate et la rétention de l’utilisateur dans l’écosystème Google.
Pour les acteurs du tourisme, comprendre ce basculement est essentiel. La baisse de trafic organique n’est pas un simple accident algorithmique : elle révèle un déplacement des points d’entrée, et impose de repenser la visibilité au-delà du SEO classique, en articulant contenu, présence locale, signaux humains et usages réels.
France, Espagne, États-Unis face aux bouleversements SEO de 2025-2030
Depuis le printemps 2024, les professionnels du SEO ont vu leur terrain de jeu se transformer en profondeur. Avec le déploiement progressif des AI Overviews de Google – ces résumés générés par intelligence artificielle en haut des pages de résultats – les habitudes de recherche, le taux de clics organiques (CTR) et la visibilité des sites web ont été bouleversés. Par ailleurs, suivant votre localisation ou vos habitudes de recherche, vous avez pu voir que Google peut vous afficher une chaîne youtube, un compte instagram ou linkedin avant même de vous présenter un site web. Bref un grand chamboulement dans la SERP dans tous les pays. Pourtant, selon les pays, les impacts varient fortement. En 2025, les États-Unis, l’Espagne et la France offrent trois cas d’étude bien distincts sur la perte de trafic liée à ces évolutions.
Aux États-Unis, l’AI Overview est pleinement déployé depuis mai 2024. Une étude de Search Engine Land montre une chute moyenne de 18 à 64 % du CTR sur certains types de contenus (FAQ, guides pratiques, actualités), avec des pointes à plus de 70 % pour les sites généralistes (médias, PBN, blogs généralistes: à destination des particuliers). Les utilisateurs cliquent moins sur les liens bleus et se contentent du résumé IA, souvent rédigé en s’appuyant sur les sites sans générer de trafic pour ces derniers. Il faut reconnaître en effet que l'intention de recherche des internautes est majoritairement informationnelle avant d'être transactionnelle et leur capacité d'attention et d'engagement a diminué au cours des dernières décennies.
Certains éditeurs majeurs comme Reddit, Quora ou The Verge ont pourtant bénéficié d’une meilleure exposition dans les Overviews, signe que la hiérarchie algorithmique évolue. Le SEO américain se réinvente donc autour de l’E‑E‑A‑T, du contenu narratif, et du balisage sémantique renforcé.
En Espagne, le déploiement d’AI Overview a eu lieu discrètement début 2025, mais les effets ont été similaires : les sites généralistes, notamment ceux orientés actu, lifestyle ou guides non spécialisés, ont vu leur trafic fondre de 30 à 60 % selon les premiers retours. La presse espagnole, qui repose encore beaucoup sur le modèle adtech classique (visibilité + clics = revenus), alerte sur l’appauvrissement de l’écosystème local. Le site El Confidencial, dans une analyse publiée en mars, qualifie AI Overview de «machine à siphonner» les visites sans redistribution équitable de la valeur. Certains SEO hispanophones commencent à pivoter vers le contenu de niche ultra ciblé, avec un ancrage local et culturel fort.
La France, en revanche, fait pour l’instant figure d’exception. L'AI Overview est déployée, mais le résumé n'est pas une synthèse AI Overview, Google a trouvé la solution pour s'adapter à la législation française.
Aujourd'hui quand je tape consultant SEO, je tombe sur un résumé de "qu'est-ce qu'un consultant seo" et son rôle, non pas de l'AI Overview mais d'un site neutre celui de cidj. Par contre quand je tape "spiritualité", je tombe sur un résumé du dictionnaire. L'AI Overview permet aux curieux qui veulent comprendre qu'est ce que "un métier" (la réponse du quoi?) d'avoir la définition. Cela évite des crawls et des clics sur de nombreux sites pour répondre à la question.
Ce triptyque met en évidence une transformation profonde du SEO à l’échelle mondiale. Loin de se résumer à l’arrivée de l’IA dans les SERP, ces évolutions traduisent une révision de fond des algorithmes de Google, visant à privilégier l’expérience utilisateur, la véracité, la pertinence locale et la qualité narrative. Dans ce contexte, comprendre les raisons d’une perte de trafic devient vital pour tout site français souhaitant rester compétitif, même sans AI Overview… pour le moment.
Les usages de l’IA et de la recherche varient selon les cultures décisionnelles
Les outils ne transforment pas les usages de manière uniforme. Ils s’inscrivent toujours dans une culture de la décision préexistante. C’est particulièrement visible lorsqu’on compare les États-Unis et la France dans les pratiques B2B.
Aux États-Unis, les décideurs ont depuis longtemps intégré les outils numériques comme des espaces d’aide à la décision individuelle. L’IA y est utilisée comme un miroir réflexif : on interroge ChatGPT, Copilot ou Perplexity pour tester une hypothèse, explorer des scénarios, faire mûrir une orientation stratégique avant toute confrontation collective. Cette pratique s’inscrit dans une culture managériale où la décision peut être préparée seul, puis validée rapidement.
C’est dans ce contexte que la recherche sans clic s’est massivement développée. Selon SparkToro, plus de 58 % des recherches aux États-Unis n’aboutissent désormais à aucun clic, l’utilisateur se contentant de la réponse fournie par Google ou par un assistant IA. L’AI Overview n’a fait qu’accélérer une dynamique déjà bien installée : l’outil devient un espace de raisonnement autonome, et non plus une simple porte d’entrée vers des sites.
En France, la logique est sensiblement différente. La prise de décision, en particulier en B2B, reste plus collective, plus dialoguée, plus incarnée. Réunions, échanges en réseau, discussions informelles, arbitrages successifs : la décision se construit dans le temps et dans la relation. Cette culture influe directement sur les usages numériques.
Les décideurs français utilisent moins l’IA comme substitut cognitif, et davantage comme outil de vérification ou d’appoint, après une phase d’exploration plus classique.
Les chiffres le confirment. En France, Google reste le point d’entrée dominant, mais l’approfondissement passe très souvent par des formats longs et incarnés. YouTube joue ici un rôle central : selon Médiamétrie, plus de 80 % des internautes français regardent des vidéos chaque mois, et YouTube est régulièrement cité comme l’un des premiers canaux d’apprentissage et de veille professionnelle.
Contrairement à la recherche sans clic américaine, l’internaute français est plus enclin à cliquer, à visiter un site, à lire, surtout lorsqu’il s’agit de sujets complexes ou stratégiques. Le temps passé par session y est plus élevé, et la consultation de plusieurs pages avant prise de contact reste fréquente dans les parcours B2B.
Cette différence culturelle a une conséquence directe sur le SEO et le webmarketing. Une stratégie efficace aux États-Unis, pensée pour nourrir une réflexion individuelle rapide et alimenter des réponses IA, ne peut être transposée telle quelle en France, où le site web demeure un espace de légitimation, de structuration du discours et d’accompagnement de la décision collective.
C’est précisément dans cet entre-deux — entre visibilité dans les moteurs et compréhension des usages humains — que se joue aujourd’hui la performance digitale. Comprendre comment les contenus sont lus, relus, comparés et mobilisés selon les cultures est devenu aussi important que leur optimisation technique.
Pour les entreprises qui travaillent sur plusieurs marchés linguistiques et culturels, cette approche suppose un accompagnement stratégique adapté aux usages locaux, aux moteurs dominants et aux nouveaux environnements IA.
Analyse sectorielle de la perte de trafic — B2C, B2B, B2G aux usa
L’impact des mises à jour de Google en 2025 ne s’est pas réparti de manière uniforme. Au-delà des pays, il est crucial d’analyser comment les secteurs B2C (grand public), B2B (inter-entreprises) et B2G (relations avec les institutions publiques) ont été affectés. Chaque segment possède ses propres dynamiques de contenu, ses formats privilégiés, et son exposition aux résumés IA ou aux critères de pertinence des core updates.
Aux États-Unis, les niches sensibles comme la spiritualité, l’ésotérisme ou l’alcool, déjà privées de publicité sur Ads et Meta pour raisons légales, subissent encore plus violemment l’arrivée des AI Overviews. Sur ces requêtes majoritairement informationnelles, le taux de clic organique chute en moyenne de –34,5 % selon Ahrefs, et certaines études observent jusqu’à –61 % de CTR lorsque l’IA répond avant les liens bleus. Sur les secteurs fragiles ou non monétisables, l’impact peut atteindre –79 % de perte de trafic selon les analyses de 2025. Or ces sites, souvent faiblement maillés et peu autoritaires, sont rarement sélectionnés comme sources par l’IA : leur contenu est résumé plutôt que cliqué, ce qui les rend quasiment invisibles dans la SERP. Pour ces niches, l’IA ne remplace pas seulement la publicité interdite : elle grignote aussi le seul levier de visibilité qui leur restait, le SEO.
États-Unis – B2C : Une chute brutale à la mesure d’un marché "natif" pour les IA
Le marché B2C américain a été le premier à expérimenter la pleine puissance des AI Overviews de Google, et cette avance s’est traduite par un contrecoup sévère pour une grande partie des acteurs historiques du SEO. La chute de trafic a été aussi brutale que significative, non seulement en raison du mécanisme des résumés générés par l’IA, mais aussi – et surtout – parce que ce marché constitue, aux yeux des modèles linguistiques, un terrain familier, parfaitement maîtrisé. En effet, les intelligences artificielles développées par Google et OpenAI ont été entraînées sur des volumes massifs de données issues du web anglo-saxon, avec une surreprésentation marquée des États-Unis.
La majorité des contenus utilisés pour former ces modèles provient de forums comme Reddit, de blogs américains, de sites e-commerce, de guides pratiques, de documentation technique, et d’articles de presse issus des grands titres nationaux. Les IA ont appris à reconnaître, structurer et anticiper les intentions de recherche typiques de ce public. Elles comprennent avec une finesse redoutable les subtilités du langage américain, les formats d'attente implicite, la structure des requêtes, et les logiques de consommation propres à la culture du pays. Cela signifie qu’un modèle comme Gemini ou GPT-4 ne se contente pas de comprendre littéralement ce que signifie « best running shoes for flat feet » ; il en saisit également les attentes implicites: comparaison, crédibilité, accessibilité, conseils synthétiques, et appel à l’action.
Dès lors, l’AI Overview déploie des réponses d’une redoutable efficacité sur ces requêtes. Il ne se contente pas d’énumérer trois modèles de chaussures, il les classe, les justifie, et résume l’ensemble de l’intention utilisateur dans une réponse unique, sans obliger à cliquer sur les liens bleus. C’est là que se joue la rupture. La visibilité organique devient presque décorative : la réponse est donnée avant même que l’utilisateur n’ait le temps de s’interroger sur la source. Le trafic ne suit plus.
Les conséquences ont été immédiates. Selon SparkToro et SEOClarity, le taux de clic moyen sur certaines requêtes B2C très concurrentielles est passé de plus de 50 % à moins de 20 %, dans les semaines ayant suivi le lancement. Sur les sujets lifestyle, bien-être, beauté, tech, nutrition ou tourisme, les chutes de trafic oscillent entre 40 et 70 % selon les cas. Les comparateurs de produits, les blogs affiliés, les guides généralistes, mais aussi les plateformes de contenu généré par les utilisateurs ont vu leur audience fondre. La tendance est d’autant plus marquée que ces contenus reposaient souvent sur des structures standardisées, pensées pour le SEO, sans réelle profondeur de narration ni valeur ajoutée humaine.
Ce phénomène n’est pas un simple accident algorithmique. Il s’appuie sur les progrès du machine learning, notamment la capacité des LLM à reconnaître des "patrons de raisonnement" – c’est-à-dire des enchaînements logiques fréquents dans les contenus web. Par exemple, l’IA a appris que lorsqu’un utilisateur tape « how to get rid of bloating fast », il s’attend à une réponse directe, synthétique, rassurante, souvent validée par un avis médical. Elle reproduit donc cette structure avec une fluidité impressionnante, allant jusqu’à reformuler des conseils extraits de centaines de sites, sans avoir besoin de les mentionner. L’utilisateur a le sentiment d’avoir obtenu la réponse. Le clic devient inutile.
Ce paradoxe est cruel. Les États-Unis, qui ont structuré l’histoire du SEO, du blogging, du content marketing et du commerce en ligne depuis deux décennies, se retrouvent pénalisés précisément parce qu’ils ont alimenté les IA qui aujourd’hui les remplacent. Leur maturité digitale se retourne contre eux. L’environnement est si dense, si balisé, que l’IA peut s’y mouvoir en terrain conquis, et proposer des résumés si pertinents qu’ils rendent les contenus originaux presque superflus. Pour les éditeurs, cette efficacité se traduit en manque à gagner massif, en perte de positionnement, en baisse de chiffre d’affaires sur des pages jusqu’alors stratégiques.
Ce qui se joue ici dépasse la simple perte de trafic : c’est une mutation du rôle des contenus eux-mêmes. L’IA ne relaie plus les sites, elle les résume. Elle ne les met plus en valeur, elle s’en inspire sans les créditer. Pour les acteurs B2C américains, cette transformation impose un repositionnement complet : produire un contenu irremplaçable, incarné, vécu, souvent local, avec une identité narrative forte, ou bien risquer d’être simplement contourné par la machine. La pertinence algorithmique ne suffit plus : il faut devenir humainement inimitable.
Ce qui se joue ici dépasse largement la mécanique du référencement ou les jeux d’optimisation de balises. C’est une révolution ontologique dans la manière dont le contenu est lu, compris, et restitué par des intelligences artificielles. À la racine, les modèles de langage tels que ceux utilisés par Google ou OpenAI sont conçus pour analyser le monde selon un raisonnement linéaire et convergent. Leur architecture neuronale est optimisée pour identifier des patterns, reconnaître des structures récurrentes, et produire des réponses médianes – à la fois statistiquement solides et linguistiquement fluides. Autrement dit, l’IA excelle à synthétiser ce qui est déjà dit, ce qui est commun, ce qui est fréquent.
Ce fonctionnement limite intrinsèquement sa capacité à restituer des idées divergentes, systémiques, incarnées dans des trajectoires humaines non linéaires. Là où l’IA reconstitue des synthèses à partir de milliers de textes similaires, une personne singulière, dotée d’une pensée arborescente ou systémique, connecte intuitivement des domaines hétérogènes, croise des angles inattendus, mobilise son vécu pour créer du sens là où la machine applique un calcul.
C’est ici que réside une véritable stratégie de résistance à la dilution par les résumés IA : créer du contenu non résumable, car il est porteur d’une logique de pensée décalée, sensorielle, multidimensionnelle. Il ne s’agit plus seulement de rédiger un texte SEO friendly, mais de manifester une présence humaine et cognitive dans le texte. Une anecdote vécue, un point de bascule personnel, une colère sourde, un terme ultra-spécifique sorti d’un lexique professionnel oublié : tout cela échappe à l’IA, car ces signaux ne sont ni dominants, ni modélisables.
Les données le confirment : selon une étude de Content Science Review menée en 2024, les contenus B2C combinant témoignage personnel, lexique technique et prise de position engagée obtiennent une durée moyenne de lecture supérieure de 63 % par rapport à des articles informatifs classiques. Sur les requêtes longues et transactionnelles, ces contenus atypiques sont aussi 3,4 fois plus partagés sur les réseaux sociaux, preuve qu’ils suscitent de l’adhésion, donc de la conversion potentielle.
Cette résistance sémantique et narrative est d’autant plus accessible aux profils neuroatypiques, en particulier les personnes à haut potentiel, les autistes ou les créateurs à pensée divergente. Leur manière naturelle de relier des idées, d’explorer les interstices, de dire ce que personne ne dit, peut devenir un levier stratégique pour les sites qui veulent survivre dans un écosystème sur-automatisé. Ces profils sont capables de produire des contenus hybrides, mêlant rigueur technique, profondeur expérientielle et langage décalé, inclassable. Or c’est précisément ce que les IA n’arrivent pas encore à reproduire.
Ce type de contenu ne cherche pas à cocher les cases de l’algorithme, mais à faire surgir du sens là où la logique probabiliste ne l’attend pas. Il repose sur une forme d'intelligence narrative non linéaire, une capacité à créer des ruptures de ton, à surprendre l’interface par des articulations rares. En intégrant ce niveau de complexité humaine dans leur stratégie éditoriale, les marques B2C peuvent redevenir lisibles, désirables, et surtout irréductibles à un simple résumé IA.
États-Unis – B2B : Une baisse modérée mais révélatrice d’un tri qualitatif
Dans l’univers B2B américain, la baisse de trafic organique observée depuis le printemps 2025 a été moins spectaculaire que dans le B2C, mais elle n’en reste pas moins significative. Estimée entre 15 et 25 % selon les secteurs, cette perte reste souvent sous-estimée, car elle est plus diffuse, plus silencieuse, et affecte principalement des contenus intermédiaires : blogs, guides éducatifs, articles de vulgarisation sectorielle. Contrairement au B2C, ce n’est pas l’AI Overview qui a précipité cette érosion, mais la core update de mars 2025, qui a opéré un tri net entre les contenus à réelle valeur ajoutée et ceux jugés insuffisamment solides sur le plan structurel, sémantique ou informationnel.
Les contenus les plus touchés sont ceux que l’on pourrait qualifier de "faux premium" : des textes de 800 à 1 500 mots, vaguement pédagogiques, produits pour nourrir une stratégie de content marketing sans réel ancrage dans l’expertise. Bien souvent, ces articles ont été rédigés par des IA ou des rédacteurs peu familiers du secteur, avec un objectif clair : générer du trafic sur des requêtes long tail sans nécessairement creuser le fond du sujet. En apparence, ils sont propres, bien structurés, avec des titres optimisés, des H2 et une meta description soignée. Mais ils manquent d’âme, de pertinence technique, de prise de position ou de données originales. Google, avec sa core update, les a tout simplement relégués plus bas dans la SERP.
Ce phénomène s’explique aussi par l’évolution de la maturité algorithmique de Google, qui s’appuie de plus en plus sur des signaux de confiance : sources citées, profondeur sémantique, présence d’exemples concrets, balisage riche (schema.org), voire données de navigation (temps passé, taux de retour). Dans un univers B2B où les requêtes sont moins nombreuses mais plus ciblées, la différence entre un contenu superficiel et une page d’expert devient décisive. Un article sur « comment choisir une solution ERP pour PME industrielle » doit aujourd’hui intégrer un raisonnement métier, une connaissance du cycle de vente, et des comparatifs précis, faute de quoi il sera assimilé à du remplissage éditorial.
Par ailleurs, une part croissante des contenus B2B américains a été générée ou dopée par IA, parfois sans relecture humaine. Ces textes, souvent trop lisses, rédigés dans un anglais standardisé, saturent les SERP de contenu redondant. Google semble avoir enclenché un processus de nettoyage, favorisant les contenus signés, ancrés dans un discours d’expert, porteurs de signaux E-E-A-T (Experience, Expertise, Authority, Trustworthiness). Le simple fait d’avoir un blog n’est plus un avantage compétitif : seul compte désormais ce que l’on y dit, et la manière dont on le dit.
Enfin, il faut noter que le B2B reste un univers où la conversion ne passe pas forcément par le clic, ce qui rend la baisse de trafic moins douloureuse en apparence. Une fiche produit bien référencée, un tunnel de demande de devis, ou une landing page technique restent efficaces. Mais les entreprises qui misaient sur le contenu de surface pour alimenter le haut de leur tunnel (awareness stage) doivent aujourd’hui revoir leur copie. La core update a rebattu les cartes, poussant à produire un contenu utile, documenté, incarné, capable de résister à la normalisation imposée par les IA.
États-Unis – B2G : Résilience algorithmique par autorité institutionnelle
Dans l’univers B2G américain, les fournisseurs, cabinets d’ingénierie ou éditeurs de solutions s’adressant aux administrations et aux agences publiques ont été relativement épargnés par la core update de mars 2025. En apparence, peu de changements. Mais en réalité, leur stabilité tient à un pilier central du modèle de Google.com : la primauté absolue du profil de liens dans l’évaluation algorithmique.
Google.com est historiquement et structurellement backlink-centric. Cela signifie que sa manière de classer les résultats, de filtrer les signaux de qualité et d’évaluer la fiabilité d’un site repose, encore aujourd’hui, en grande partie sur la nature, la quantité et la provenance des liens entrants. Cette approche est héritée du PageRank originel, mais elle reste profondément ancrée dans le cœur de l’écosystème Google. Même les évolutions récentes vers l’E-E-A-T ou l’analyse sémantique ne suppriment pas cette dynamique : elles la complètent.
Or, dans le domaine du B2G, les sites qui bénéficient de backlinks institutionnels issus de domaines .gov ou .edu partent avec une longueur d’avance considérable. Ces liens proviennent d’écosystèmes fermés, difficilement manipulables, souvent le fruit de partenariats, d’appels d’offres remportés ou de citations officielles. Ils confèrent à ceux qui les obtiennent un authority score très élevé, souvent situé entre 70 et 90, ce qui surpasse de loin les scores moyens du B2B privé.
Ce n’est pas qu’une question de référencement. Un lien provenant d’un site comme energy.gov, fda.gov ou data.gov est interprété par Google comme un gage de confiance systémique. Il agit comme une preuve d’utilité publique, de conformité réglementaire, voire d’institutionnalisation de l’entreprise citée. Sur un marché américain hyper-concurrentiel, cela suffit à neutraliser temporairement les effets d’une core update, même sévère.
Dans les faits, les sites B2G les mieux positionnés ont été ceux capables de maintenir un profil de netlinking fort, stable et ancré dans les sphères institutionnelles. Cela concerne aussi des sites liés aux normes, à la cybersécurité, aux achats publics, aux infrastructures critiques ou à l’ingénierie publique. Leur contenu est parfois peu dynamique sur le plan éditorial, mais leur toile de confiance algorithmique les protège de la volatilité.
Cependant, la core update a tout de même opéré un filtrage. Les sites affichant une autorité élevée mais proposant des contenus obsolètes, creux ou non mis à jour sur des thématiques réglementaires précises (par exemple le RGPD, les normes NIST, les audits de sécurité) ont pu perdre des positions, notamment sur Google News et sur les requêtes sensibles. L’algorithme semble désormais croiser deux couches : le signal de confiance institutionnelle d’un côté, et la fraîcheur + profondeur du contenu de l’autre. Ceux qui combinent les deux sortent renforcés.
Dans ce contexte, le B2G apparaît comme un des rares segments où l’ancien paradigme du SEO – basé sur l’autorité perçue via les liens – reste pleinement opérant, mais à condition de maintenir une exigence éditoriale élevée. C’est un espace où l’hyperfiabilité prime sur la quantité, et où les liens font plus que signaler une popularité : ils traduisent une légitimité structurelle dans l’architecture informationnelle du web américain.
On comprend alors l'intention profonde de Google qui est à la racine de sa création et de son positionnement sur le marché des moteurs de recherche. Répondre de manière fiable aux intentions de recherche et aux requêtes des utilisateurs. Cette exigence s'est accrue avec l'arrivée sur le marché de la recherche informationnelle de Chat gpt 4. Open Ai gagnant des parts de marché sur la recherche informationnelle, Google devait reprendre la main sur ce marché pour continuer à fidéliser les utilisateurs dans son écosystème.
Analyse sectorielle de la perte de trafic — B2C, B2B, B2G EN ESPAGNE
Depuis le début du déploiement d’AI Overview sur Google.es en 2025, les requêtes informationnelles non marquées – celles que produisent massivement les blogs ésotériques, spirituels ou liés à l’alcool – sont les plus touchées. Les études américaines transposables montrent que l’apparition d’un AIO entraîne une baisse moyenne de – 34,5 % du CTR organique (Ahrefs), pouvant atteindre – 61 % sur certaines requêtes purement informatives (Search Engine Land). En appliquant ces ordres de grandeur au contexte espagnol, où Google.es privilégie fortement l’information locale et les sources à haute autorité, on peut formuler l’hypothèse que les blogs non monétisables, peu maillés et non rattachés à une entreprise réelle subissent une perte de visibilité comprise entre – 30 et – 60 %. Ce scénario repose sur trois variables : l’absence de publicité possible, un déficit d’autorité sémantique et la concurrence structurelle des sites institutionnels locaux. Les effets définitifs ne pourront toutefois être confirmés que d’ici fin 2025 à mi-2026, le temps que Google stabilise l’AIO, que deux cycles de Core Updates passent et que les données organiques de Google.es deviennent suffisamment consolidées pour être interprétées.
B2C : un écosystème vulnérable, entre dépendance au trafic organique et faibles marges de manœuvre
Depuis le déploiement d’AI Overview sur Google.es début 2025, les sites B2C espagnols, notamment les généralistes opérant dans les secteurs du tourisme, de la gastronomie et de la consommation, ont été durement touchés. La baisse de trafic organique est estimée entre 30 et 50 %, parfois davantage pour les acteurs les plus dépendants des requêtes génériques. Des expressions aussi simples que « mejor hotel en Barcelona » ou « receta gazpacho andaluz » déclenchent désormais des résumés générés par l’intelligence artificielle, souvent consultés directement dans la SERP mobile, sans clic. Ce phénomène a entraîné une chute brutale de la visibilité pour les portails de contenus, les annuaires de services et les petits médias locaux.
Mais derrière cette dynamique, il faut comprendre que Google.es n’est pas un simple miroir régional de Google.com. S’il repose sur la même architecture algorithmique globale, son écosystème sémantique, commercial et stratégique est très différent. En Espagne, les investissements marketing dans les sites web restent, en moyenne, beaucoup plus modestes que dans les pays anglo-saxons. Les PME et les indépendants y consacrent souvent un budget minimal, se reposant sur des solutions clés en main, des sites peu optimisés, ou des prestataires low cost. Le contenu est parfois négligé, rarement mis à jour, et très rarement structuré autour de véritables stratégies de marque ou de référencement éditorial sur le long terme.
Dans ce contexte, une partie des professionnels du web espagnol a historiquement compensé ce manque d’investissement par des pratiques de SEO plus agressives, voire franchement black hat. Cloaking, backlinks achetés en masse, spinning de contenu, réseaux privés de blogs (PBN) : ces méthodes, largement tolérées jusqu’ici dans certaines niches, ont alimenté un web B2C espagnol extrêmement concurrentiel en façade, mais fragile dans sa structure profonde. Lorsque la core update de Google ou les IA Overview ont commencé à réévaluer les contenus et à redistribuer les signaux de qualité, ces fondations peu solides ont cédé.
Le contraste avec les États-Unis est flagrant. Si les deux marchés ont été frappés par une baisse de clics liée à la présence d’IA en tête de SERP, les sites américains ont souvent bénéficié d’un socle technique et éditorial plus robuste : structure en silos, netlinking raisonné, storytelling maîtrisé, logique d’inbound marketing construite sur des années. En Espagne, même parmi les plateformes nationales, peu de sites disposent d’une autorité comparable, que ce soit en matière de contenu, d’expérience utilisateur ou de netlinking naturel.
L’autre spécificité du web hispanophone tient au fait que la barrière linguistique joue moins en faveur des acteurs locaux. Un contenu rédigé en espagnol peut facilement être concurrencé, dans les SERP internationales, par des sites sud-américains, voire américains, qui traduisent ou localisent partiellement leurs offres. Cela crée un brouillage algorithmique supplémentaire, où les sites espagnols doivent se battre pour exister dans une langue partagée par des centaines de millions d’internautes dans le monde. L’IA, qui ne distingue pas les usages culturels subtils, synthétise les réponses à partir de corpus pan-hispaniques, et finit par invisibiliser les acteurs locaux au profit d’une réponse standardisée.
C’est dans ce contexte que la perte de trafic B2C en Espagne prend tout son sens. Il ne s’agit pas seulement d’une conséquence directe du déploiement d’AI Overview, mais du révélateur d’un écosystème digital trop longtemps sous-capitalisé, techniquement fragile, et dépendant d’un SEO court-termiste. Les indépendants du tourisme, les petits producteurs de contenus culinaires, ou les comparateurs de services en ligne se retrouvent marginalisés, faute d’avoir pu investir dans une stratégie de différenciation durable.
Pour inverser cette tendance, il ne suffira pas d’échapper à l’IA. Il faudra repenser l’identité éditoriale, la valeur humaine du contenu, et reconstruire une autorité fondée sur l’expérience réelle, les ancrages locaux, et une approche plus ambitieuse du web. Cela nécessite un changement culturel autant que technique, dans un pays où le digital reste encore perçu, trop souvent, comme un coût à minimiser plutôt qu’un capital à faire fructifier.
B2B : entre ancrage local, sobriété numérique et opportunités durables
Contrairement au secteur B2C, fortement exposé aux pertes de trafic liées à l’arrivée de l’AI Overview sur Google.es, le B2B espagnol a montré une résistance plus robuste et plus silencieuse. La plupart des entreprises industrielles, agroalimentaires ou logistiques de taille moyenne, qui constituent le cœur du tissu économique espagnol, ont connu des évolutions de positionnement relativement stables dans les SERP. Si certaines ont perdu des requêtes génériques à faible taux de conversion, elles ont conservé, voire amélioré, leur visibilité sur les recherches professionnelles à forte intention : normes de certification, équipements industriels spécifiques, logistique du froid, maintenance technique ou exportation agroalimentaire.
Cette stabilité apparente n’est pas le fruit du hasard. Dans un pays où la transformation numérique avance à un rythme plus mesuré que dans les grandes économies anglo-saxonnes, une majorité de PME espagnoles ont développé leur présence en ligne de manière sobre mais ciblée. Leurs sites ne brillent pas toujours par leur design ou leur interactivité, mais ils bénéficient souvent d’un positionnement local fort, ancré dans une région, une filière ou un savoir-faire. Ces entreprises ne cherchent pas à conquérir l’algorithme de Google, mais à être trouvées par ceux qui les cherchent déjà, avec des requêtes longues, précises, souvent en lien avec une démarche commerciale ou réglementaire avancée.
C’est précisément ce caractère "utilitaire" de la recherche B2B qui les protège partiellement de l’IA générative. Les requêtes adressées aux entreprises B2B sont, pour l’instant, moins exposées à l’AI Overview, car elles nécessitent une granularité technique, une compréhension sectorielle ou une contextualisation que les IA génératives ne restituent pas encore de manière fiable. Lorsque l’on cherche une solution de traçabilité pour l’exportation de fruits à noyaux, ou un prestataire d’emballage alimentaire sous atmosphère modifiée, l’utilisateur reste méfiant face à une réponse IA généraliste. Il cherche des noms d’entreprises, des certifications, des retours d’expérience ou des documents téléchargeables.
Ce comportement offre un répit au SEO B2B espagnol, mais il masque aussi une fragilité structurelle. Car malgré cette bonne tenue des positions, la majorité des sites web B2B restent peu entretenus, rarement optimisés, et souvent construits sans réelle stratégie éditoriale. Très peu d’entre eux investissent dans des contenus réguliers à haute valeur ajoutée, dans des stratégies de netlinking organique, ou dans des blogs techniques pouvant faire autorité sur leur marché. Le référencement repose alors essentiellement sur un petit nombre de pages statiques, parfois efficaces, mais insuffisantes pour capter des intentions plus larges ou pour s’imposer dans des contextes concurrentiels internationaux.
Par ailleurs, le B2B espagnol hérite lui aussi, à sa manière, des pratiques issues du SEO court-termiste. S’il est moins marqué par le black hat que le B2C, il n’est pas rare de croiser des sites vitrine gonflés artificiellement par des backlinks de faible qualité ou par des répertoires peu pertinents. Lorsque la core update de Google redéfinit les critères de qualité autour de l’expérience, de la fiabilité et de l’expertise, ces fragilités deviennent plus visibles. Plusieurs entreprises, notamment dans le secteur du conseil technique, ont vu leurs pages “explicatives” rétrogradées au profit de concurrents mieux structurés, mieux balisés, et plus engagés dans la production de contenu original.
Enfin, il faut souligner un paradoxe propre au B2B espagnol. Ce secteur dispose d’un potentiel énorme : compétences industrielles solides, liens avec les collectivités, capacité d’innovation locale. Pourtant, il sous-exploite le levier digital pour s’internationaliser ou consolider sa présence en ligne. La majorité des contenus sont uniquement rédigés en espagnol, souvent mal traduits s’ils sont disponibles en anglais ou en français, et les entreprises hésitent encore à s’approprier les outils d’optimisation fine : données structurées, cocons sémantiques, tracking des conversions, tunnel de contenu orienté lead.
Ainsi, si le B2B espagnol a su rester visible en 2025 grâce à la pertinence directe de ses offres et à la sobriété de son référencement, il lui manque encore un pas stratégique pour devenir vraiment maître de son destin digital. Ce n’est pas la core update qui menace ce secteur, mais le risque de stagnation dans un environnement qui évolue vite. Saisir cette dynamique, investir intelligemment dans du contenu spécialisé, structuré, incarné, pourrait permettre aux PME espagnoles de dépasser leur périmètre régional et d’entrer pleinement dans une logique de rayonnement international.
B2G : sites discrets, autorité faible, et fossé algorithmique avec les États-Unis
Dans le paysage numérique espagnol, le segment B2G – c’est-à-dire les entreprises ou prestataires qui travaillent avec les institutions publiques, les collectivités locales ou les marchés réglementés – semble à première vue en marge des grands bouleversements du SEO observés depuis 2025. Les requêtes les plus spécifiques de ce secteur, comme « auditoría energética edificios públicos », « software control de acceso ayuntamientos » ou « mantenimiento de redes de agua municipales », génèrent peu de réponses par IA Overview, même depuis son déploiement en Espagne. Leur complexité technique, leur ancrage contextuel et leur faible fréquence moyenne de recherche les rendent peu propices à la génération de résumés IA automatisés.
Cependant, derrière cette relative stabilité apparente, la core update de mars 2025 a laissé des traces profondes. Et ce sont précisément les faiblesses structurelles du web B2G espagnol qui ont été mises au jour. Dans de nombreux cas, ces sites sont pauvres en contenu, peu actualisés, limités à des pages vitrines figées qui n’ont pas évolué depuis plusieurs années. Très peu intègrent des blogs, des études de cas ou des analyses réglementaires sectorielles, comme cela peut être attendu dans un contexte où la transparence, la compétence et la fiabilité sont des valeurs décisives. Or, c’est justement sur ces signaux que les nouvelles versions de l’algorithme de Google fondent une grande partie de leur logique de classement.
La différence avec Google.com, et plus largement avec le marché américain, ne tient pas tant à l’algorithme – qui reste globalement unifié dans son fonctionnement – qu’à la richesse sémantique de l’écosystème B2G anglophone, et à la densité de netlinking institutionnel qui y circule. Sur Google.com, les entreprises qui travaillent avec des agences fédérales ou des entités publiques bénéficient souvent de backlinks puissants et hautement autoritaires provenant de domaines en .gov, .edu ou de sites gouvernementaux tiers. Ces liens, souvent très stables dans le temps, constituent un socle d’autorité extrêmement robuste, que Google valorise fortement dans son classement. À cela s’ajoute une pratique de publication régulière : études, témoignages, livres blancs, tribunes ou rapports d’activité font partie du contenu natif de nombreux prestataires B2G aux États-Unis.
En Espagne, la situation est très différente. Le backlinking institutionnel y est beaucoup plus rare, car les entités publiques créent peu de contenus externes et lient rarement vers des entreprises, même partenaires. Les liens provenant de domaines en .gob.es ou .edu.es sont peu nombreux, rarement profonds, souvent limités à des appels d’offres archivés ou à des listes de prestataires. Il n’existe pas en Espagne de culture numérique forte autour de la documentation publique accessible et maillée. Par conséquent, les sites privés B2G ne bénéficient que rarement de ces signaux d’autorité externe.
Ce déséquilibre est accentué par le fait que très peu de ces entreprises développent une stratégie SEO proactive. L’absence de contenu technique ou réglementaire régulier, combinée à un netlinking passif, conduit à un profil algorithmique faible, malgré parfois une expertise métier réelle. Or, dans le cadre des mises à jour de Google en 2025, l’absence d’autorité, la stagnation éditoriale et le manque d’ancrage externe sont devenus des motifs de déclassement silencieux.
Autre différence notable : sur Google.com, les contenus B2G bénéficient d’un écosystème éditorial connexe. Ils sont souvent cités dans des rapports d’agences, repris dans la presse spécialisée, indexés dans des bases de données professionnelles ouvertes. Cela crée un environnement riche, interconnecté, que l’algorithme peut interpréter comme un tissu de confiance. En Espagne, la fragmentation du paysage numérique, la faible production éditoriale dans les secteurs publics, et l'absence d’une logique de référencement ouverte rendent ces contextes bien plus isolés.
Ainsi, si les prestataires B2G espagnols ont parfois échappé à une chute brutale de trafic, c’est souvent par défaut d’exposition, et non par force d’optimisation. La core update de mars 2025 a déjà commencé à déclasser certains sites à contenu obsolète, trop pauvre ou sans crédibilité externe. Mais ce n’est là qu’un premier signe. Le véritable risque est que, dans un environnement où les critères de qualité se durcissent mois après mois, les prestataires espagnols les moins préparés voient leur visibilité fondre à mesure que d'autres, mieux structurés, mieux référencés, et parfois étrangers, prennent leur place dans les SERP locales.
Pour rester compétitifs, il ne suffira plus de répondre techniquement à un appel d’offres. Il faudra également exister sur le plan sémantique, éditorial et algorithmique, avec un contenu clair, riche, structuré, crédible, et intégré dans un maillage web lisible. Faute de quoi, même les marchés publics, historiquement plus stables, deviendront inaccessibles en ligne à ceux qui n’auront pas su construire leur autorité numérique.
Bref si le gouvernement espagnol veut vraiment soutenir l'activité économique des entreprises privées, il a tout intérêt à faire des backlinks vers certaines entreprises grâce à des articles de blogs spécialisés et contextualisés. Cela bien moins chère que de la subvention publique et peut booster les exportations.
Analyse sectorielle de la perte de trafic — B2C, B2B, B2G EN FRANCE
En France, l’AI Overview n’est pas encore déployé dans Google.fr en raison d’un ensemble de contraintes législatives – droit voisin, RGPD, restrictions sur la réutilisation des contenus éditoriaux – qui empêchent Google d’afficher massivement des résumés IA dans la SERP francophone. Ce retard crée une situation paradoxale : les blogs ésotériques, spirituels ou liés à l’alcool, pourtant non monétisables et exclus de la publicité en ligne, conservent temporairement une meilleure visibilité organique que leurs équivalents américains ou espagnols. Mais cette exception est fragile. Les Core Updates 2025 ont déjà montré que Google.fr privilégie fortement les contenus éducatifs, pédagogiques et institutionnels, ce qui pénalise les blogs indépendants à faible autorité, surtout dans les trois niches sensibles. En l’absence d’AIO, ces sites échappent pour l’instant à la chute de – 34 à – 61 % de CTR observée dans les pays où l’IA répond avant les liens bleus, mais ils souffrent d’un autre biais : l’indexation française est de plus en plus sélective, et les contenus non monétisables, non ancrés localement ou peu « utiles » selon l’IA risquent d’être relégués, voire partiellement désindexés. Le paradoxe français est donc clair : les blogs sensibles gagnent du temps grâce au cadre légal, mais ils perdent déjà du terrain face à un moteur qui estime qu’en France, le web doit avant tout fournir une information fiable, normative et pédagogique – un modèle opposé au paradigme américain, où l’IA résume massivement les contenus, quitte à faire disparaître les niches entières de la SERP.
B2C : l’impact silencieux des Core Updates dans un écosystème contraint
Avant même que la France n’ait été concernée par le déploiement des AI Overviews dans ses pages de résultats, le web B2C francophone avait néanmoins subi, depuis mars 2025, une baisse de trafic significative.
Cette chute, estimée entre 20 et 45 % selon les sources croisées du Journal du Net et de l’outil Sistrix, touche en priorité les secteurs historiquement exposés aux requêtes transactionnelles ou informatives de masse : tourisme, bien-être, santé alternative, annuaires locaux, comparateurs, blogs lifestyle ou parenting. Pourtant, aucun résumé génératif n’est encore en jeu sur Google.fr. C’est donc dans l’algorithme lui-même que se loge la cause : la core update de mars 2025, déployée de manière globale, a redéfini les signaux de qualité, de légitimité et d’utilité du contenu.
Pour comprendre ce phénomène, il faut revenir à une donnée structurelle trop souvent négligée : Google.fr n’est pas une simple déclinaison de Google.com. Il fonctionne avec la même base algorithmique, mais dans un écosystème linguistique, éditorial et juridique très spécifique. La langue française est beaucoup moins standardisée que l’anglais américain, et son usage web reste marqué par des subtilités culturelles fortes : tournures complexes, formulations indirectes, références implicites, mais aussi une forte tradition d’écriture discursive. Cela rend la lisibilité algorithmique des contenus plus délicate, surtout lorsque le site ne travaille pas activement ses métadonnées, ses titres Hn ou ses contenus enrichis.
À cela s’ajoute une densité éditoriale moins structurée que dans les pays anglo-saxons. Très peu de sites français ont investi massivement dans des cocons sémantiques profonds, dans des chaînes de contenu interreliées ou dans des stratégies de contenu à forte granularité. Le netlinking reste limité à quelques médias majeurs, et les liens croisés entre acteurs du même secteur sont rares, par manque de culture collaborative. L’autorité algorithmique repose donc, pour une majorité de sites, sur un nombre restreint de signaux, ce qui les rend plus vulnérables à toute modification des pondérations dans le ranking.
La core update de mars 2025 n’a donc pas puni tous les sites indistinctement : elle a favorisé les contenus fiables, à jour, sourcés, bien structurés et porteurs d’une réelle expertise. Ce sont les sites qui ont investi dans la rédaction humaine qualifiée, dans l’intégration de données vérifiables, dans la citation de sources et dans la régularité de publication qui s’en sortent le mieux. À l’inverse, ceux qui reposaient sur des articles anciens réoptimisés à la marge, sur des contenus généralistes générés automatiquement ou sur une logique SEO de volume plutôt que de profondeur ont vu leur visibilité décliner, parfois drastiquement.
La spécificité du marché français tient aussi à sa sociologie de l’internaute. Les utilisateurs francophones sont plus méfiants vis-à-vis des contenus sponsorisés, plus sensibles à la réputation des sources, et plus enclins à comparer avant d’acheter. Cela renforce le poids de l’autorité perçue, du style rédactionnel, de la présentation du contenu. Google.fr, en écho à ces habitudes, semble affiner son interprétation des signaux comportementaux : taux de rebond, temps passé sur la page, interaction avec les blocs internes. Ces données influencent désormais de manière plus nette la visibilité, même en l’absence de résumé IA en haut des résultats.
B2B : entre inertie éditoriale et consolidation des écosystèmes solides
Dans le paysage numérique français, le secteur B2B semble avoir globalement mieux résisté que le B2C à la core update de mars 2025. Il n’a pas connu de chute aussi brutale ni aussi immédiate, principalement parce que ses requêtes sont plus spécifiques, souvent techniques, et que son cycle de conversion repose davantage sur une logique relationnelle et moins sur le volume de clics organiques. Pourtant, cette résistance est relative, car de nombreux sites professionnels ont été affectés silencieusement, sans baisse spectaculaire de trafic, mais avec une érosion progressive de leur visibilité sur des requêtes-clés.
Les premiers sites touchés par cette vague d’ajustement sont ceux qui avaient été construits selon une logique de contenu superficiel ou semi-automatisé. En France, beaucoup d’entreprises industrielles, de cabinets de conseil, d’éditeurs de logiciels ou de sociétés de services B2B avaient mis en place des blogs ou des pages d’expertise essentiellement pour cocher la case “SEO”. Or, ces pages présentaient souvent des faiblesses rédhibitoires au regard des nouveaux critères de Google : contenus recyclés, reformulations à partir d’articles existants, rédaction approximative confiée à des prestataires sans réelle compétence métier, maillage interne absent ou mal pensé, balisage inexistant, expérience utilisateur négligée.
Derrière ces défauts, c’est toute une culture éditoriale trop défensive qui est remise en cause. Beaucoup d’entreprises ont publié pour publier, en suivant des grilles de mots-clés génériques, sans prendre le temps de développer une ligne éditoriale cohérente, ni de réfléchir à l’utilité réelle de leur contenu pour le lecteur professionnel. Elles ont ainsi saturé leur site de contenus tièdes, parfois orientés SEO, mais sans fond ni conviction. Ces contenus ont été les premiers ciblés par la core update de mars 2025, qui a renforcé les exigences en matière d’expérience, d’expertise, d’autorité et de fiabilité (E-E-A-T).
À l’inverse, certains sites ont vu leur positionnement s’améliorer, parfois de façon spectaculaire. Ce sont ceux qui, depuis plusieurs années, ont adopté une stratégie éditoriale claire et structurée, pensée pour le long terme. Leur contenu est rédigé par des personnes compétentes, parfois internes à l’entreprise, avec une véritable valeur technique, un langage de métier, des références croisées à la réglementation ou à l’actualité sectorielle. Ces sites intègrent souvent une architecture en silos, où chaque thème est développé en profondeur à travers un maillage interne cohérent. Les balises sont correctement hiérarchisées, les pages importantes reçoivent des liens internes pertinents, les articles les plus anciens sont régulièrement mis à jour pour rester compétitifs.
Là encore, Google.fr exprime une spécificité. Le moteur valorise fortement les signaux de qualité en langue française, mais il est particulièrement exigeant sur la cohérence sémantique, la structuration logique et l’utilité réelle des contenus. Il ne suffit plus d’avoir des pages “blog” ou “actualités” pour occuper un espace dans les SERP. Il faut produire un contenu qui résout une problématique concrète, qui répond à une intention claire, qui fait autorité. Cela vaut pour tous les secteurs B2B : de l’aéronautique à l’agroalimentaire, du juridique au bâtiment, de l’export au numérique.
La dimension locale joue aussi un rôle. De plus en plus, les requêtes B2B intègrent une dimension territoriale ou contextuelle. Être référencé sur “audit énergétique industrie Pays de la Loire” ou “cabinet conformité RGPD Toulouse” implique de produire un contenu ancré dans une réalité régionale, avec une sémantique proche des attentes du terrain. Les entreprises qui ont su capter cette spécificité – en publiant des cas clients, en participant à des appels d’offres publics, en relayant leur activité dans des clusters ou des réseaux locaux – bénéficient d’un ancrage plus robuste, difficile à concurrencer par des sites plus généralistes.
Enfin, l’évolution du marché B2B en France pousse aussi à une hybridation des formats, dans laquelle le texte n’est plus seul. Les entreprises qui couplent leur stratégie éditoriale avec de la vidéo, des webinaires intégrés, des infographies interactives, ou des documents téléchargeables améliorent sensiblement leur temps de consultation et leur taux d’engagement. Ce sont précisément ces signaux comportementaux que Google commence à intégrer plus finement dans son évaluation. Le SEO B2B de 2025 ne se limite plus au texte bien optimisé : il s’inscrit dans une expérience digitale complète, sobre, crédible, utile.
Ce réajustement est une opportunité déguisée. Il contraint les entreprises à redéfinir leur présence en ligne non comme une vitrine, mais comme un écosystème de confiance. Celles qui investiront intelligemment dans un contenu vivant, professionnel, original et structuré pourront asseoir leur autorité sur la durée. Les autres continueront à produire du contenu invisible, ou pire : décliné lentement mais sûrement vers l’obsolescence algorithmique.
France – B2G : une visibilité fragilisée par la montée des sites institutionnels
Le secteur B2G en France – c’est-à-dire les entreprises s’adressant aux institutions, collectivités et administrations – a longtemps bénéficié d’un positionnement stable dans les moteurs de recherche. Ces acteurs opèrent sur des niches très spécifiques, souvent en lien avec la commande publique, la conformité réglementaire, les marchés de la transition écologique, ou la cybersécurité des collectivités locales. Leur trafic repose en partie sur des requêtes précises, telles que « logiciel RGPD pour mairie », « audit énergétique bâtiments publics » ou encore « solution dématérialisation marchés publics ». Ces requêtes ne génèrent pas de très gros volumes, mais elles sont à très haute valeur ajoutée, car elles ciblent directement des donneurs d’ordre publics ou parapublics.
Depuis la core update de mars 2025, le paysage a pourtant évolué. L’impact sur les sites B2G n’a pas été massif, mais il est bien réel. Plusieurs plateformes privées référencées sur ces sujets ont vu une partie de leur visibilité s’éroder. Ce phénomène est en partie lié à un recentrage de Google.fr sur des pages institutionnelles considérées comme plus fiables, en particulier lorsqu’il s’agit de sujets réglementaires, juridiques ou liés aux normes. Ainsi, sur des requêtes comme « obligations accessibilité ERP 2025 » ou « sécurité numérique collectivités », Google privilégie désormais les contenus produits par des sites gouvernementaux, des portails publics comme service-public.fr, legifrance.gouv.fr ou les plateformes régionales pilotées par l’État.
Cette évolution ne doit cependant pas être interprétée comme une condamnation du SEO B2G, mais plutôt comme une exigence accrue en matière d’autorité, de précision et de structure éditoriale. Les entreprises qui continuent à obtenir de bons résultats sont celles qui adoptent une approche rigoureuse, structurée et “tunnelisée” de leurs contenus : chaque page cible une intention unique, fournit une réponse claire, référencée, contextualisée, et parfois territorialisée. Le référencement thématique – axé sur une expertise juridique, technique ou locale – est donc plus efficace que jamais. Par exemple, une entreprise qui publie un guide détaillé sur « la mise en conformité RGPD dans les établissements scolaires de Nouvelle-Aquitaine », en incluant les textes de loi, les contraintes spécifiques des collectivités et des cas d’usage chiffrés, voit sa valeur perçue par Google nettement renforcée.
Le rôle du netlinking est également central dans ce segment. De nombreux sites B2G français bénéficient d’un solide écosystème de backlinks, issu de leur participation à des projets publics, à des appels d’offres ou à des consortiums. Chaque lien depuis un site institutionnel ou une collectivité locale renforce l’autorité du site fournisseur. Google.fr, à la différence de google.com, reste très sensible à la qualité du maillage externe, mais aussi à son contexte territorial. Un lien depuis une page du département des Landes ou du site d’une communauté de communes de Bretagne a un poids sémantique non négligeable lorsqu’il redirige vers une entreprise qui propose des solutions à ces mêmes territoires.
Autre élément clé : la fraîcheur et l’actualisation des contenus. Beaucoup de sites B2G ont souffert non pas d’un manque de pertinence, mais d’un manque de mise à jour. Des articles ou pages rédigés en 2019 ou 2020, même bien référencés à l’époque, ont perdu du terrain s’ils n’ont pas été adaptés aux nouvelles normes, aux nouveaux dispositifs réglementaires ou aux changements dans les politiques publiques. Google.fr privilégie désormais les contenus vivants, mis à jour régulièrement, qui tiennent compte de l’actualité législative, des appels à projets récents, ou des grandes tendances de la commande publique (transition énergétique, sobriété numérique, mutualisation des moyens…).
Enfin, la structuration technique des sites entre aussi en ligne de compte. Ceux qui ont su mettre en œuvre un balisage sémantique propre, un maillage logique interne, et une accessibilité mobile sans faille sont favorisés. À l’inverse, les plateformes aux CMS vieillissants, aux temps de chargement élevés ou au design peu lisible sur mobile voient leur performance dégradée, notamment sur les requêtes effectuées depuis des téléphones professionnels.
En résumé, le B2G français ne s’effondre pas, mais il se réorganise. Les positions ne dépendent plus uniquement de la présence ou non sur des requêtes-clés, mais de la capacité à créer un contenu crédible, structuré, contextualisé et aligné sur les besoins concrets des institutions. Les entreprises qui abordent ce secteur avec sérieux, expertise et stratégie SEO solide conserveront leur visibilité. Les autres, en revanche, risquent de voir leur trafic migrer doucement mais sûrement vers les pages froides des portails publics. Comme pour l'Espagne si la France veut rester souveraine elle a tout intérêt à encourager les backlinks inter-entreprises et à en faire soir-même vers les entreprises qu'elle estiment nécessaires pour l'économie. C'est mille fois plus efficace que la logique répressive.
Pourquoi le SEO opportuniste n’a plus aucune chance en 2026-2030
Les données observées depuis 2024 confirment une rupture nette dans l’écosystème de la visibilité digitale. Selon Ahrefs, sur les requêtes déclenchant un AI Overview, le taux de clic en position 1 est passé d’environ 7,3 % à 2,6 % en un an, soit une chute de plus de 60 %. D’autres études relayées par Search Engine Land, Amsive ou Seer Interactive montrent des pertes de CTR comprises entre 15 % et 80 % selon le type de requête, avec un impact maximal sur les contenus informationnels non brandés et généralistes.
Dans le même temps, SparkToro estime qu’aux États-Unis, plus de 58 % des recherches n’aboutissent désormais à aucun clic. Ces chiffres ne traduisent pas une crise du SEO, mais la fin d’un modèle.
Dans ce nouvel environnement, le SEO opportuniste — basé sur la chasse aux mots-clés, la production rapide de contenus génériques ou la duplication de formats qui “marchent” — n’a plus aucune chance de survivre. Les moteurs de recherche et les IA génératives sont entraînés prioritairement sur des requêtes massives, issues de comportements réels et répétés d’utilisateurs humains.
Ils apprennent à partir de ce qui est lu, partagé, commenté, reformulé, et non à partir de contenus artificiellement optimisés pour capter un clic isolé. Autrement dit, ce qui ne suscite aucun usage réel finit mécaniquement par perdre en visibilité, quelle que soit la qualité technique apparente du SEO.
L’observation terrain le confirme. Lorsqu’un contenu est diffusé via des canaux sociaux comme Instagram et qu’il génère un trafic réel — même modeste — Google et les IA réagissent immédiatement : les pages sont crawlées plus rapidement, réindexées, parfois reprises ou synthétisées dans d’autres environnements (SERP enrichies, assistants IA, moteurs alternatifs). Ce trafic n’est pas perçu comme un simple “signal social”, mais comme une preuve d’intérêt humain, ce que les algorithmes recherchent précisément pour ajuster leurs modèles. À l’inverse, un contenu publié sans usage réel, même techniquement optimisé, reste invisible ou finit par être déclassé.
La conséquence est claire : la visibilité digitale ne se joue plus uniquement sur le site web, ni même uniquement dans Google. Elle se construit dans un écosystème d’usages, où les réseaux sociaux, les plateformes vidéo, les moteurs de recherche et les IA conversationnelles s’alimentent mutuellement. Le rôle du SEO n’est plus de capter artificiellement l’attention, mais de rendre un contenu suffisamment pertinent, cohérent et utile pour être repris, synthétisé et convoqué dans ces différents environnements.
Dans ce contexte, la véritable question n’est plus “comment regagner du trafic”, mais “comment produire un contenu qui compte suffisamment pour être appris par les systèmes”. Car dans un web dominé par l’IA, la visibilité ne récompense plus l’opportunisme, mais l’usage réel. Et ce ne sont plus les clics qui font l’autorité, ce sont les traces laissées dans les parcours humains.


EUSKAL CONSEIL
9 rue Iguzki alde
64310 ST PEE SUR NIVELLE
07 82 50 57 66
euskalconseil@gmail.com
Mentions légales: Métiers du Conseil Hiscox HSXIN320063010
Ce site utilise uniquement Plausible Analytics, un outil de mesure d’audience respectueux de la vie privée. Aucune donnée personnelle n’est collectée, aucun cookie n’est utilisé.