Perte de trafic SEO en 2025 : France, Espagne, USA face à Google IA

Baisse du trafic web en 2025 : l’impact des Core Updates et de l’AI Overview en B2C, B2B et B2G sur les sites français, espagnols et américains. Analyse sectorielle par un consultant de la perte de trafic présente et à venir

VEILLE MARKETINGWEBMARKETING

LYDIE GOYENETCHE

7/23/202534 min lire

CHANGEMENT GOOGLE 2025
CHANGEMENT GOOGLE 2025

France, Espagne, États-Unis face aux bouleversements SEO de 2025

Depuis le printemps 2024, les professionnels du SEO ont vu leur terrain de jeu se transformer en profondeur. Avec le déploiement progressif des AI Overviews de Google – ces résumés générés par intelligence artificielle en haut des pages de résultats – les habitudes de recherche, le taux de clics organiques (CTR) et la visibilité des sites web ont été bouleversés. Pourtant, selon les pays, les impacts varient fortement. En 2025, les États-Unis, l’Espagne et la France offrent trois cas d’étude bien distincts sur la perte de trafic liée à ces évolutions.

Aux États-Unis, l’AI Overview est pleinement déployé depuis mai 2024. Une étude de Search Engine Land montre une chute moyenne de 18 à 64 % du CTR sur certains types de contenus (FAQ, guides pratiques, actualités), avec des pointes à plus de 70 % pour les sites généralistes (médias, PBN, blogs généralistes: à destination des particuliers). Les utilisateurs cliquent moins sur les liens bleus et se contentent du résumé IA, souvent rédigé en s’appuyant sur les sites sans générer de trafic pour ces derniers. Il faut reconnaître en effet que l'intention de recherche des internautes est majoritairement informationnelle avant d'être transactionnelle et leur capacité d'attention et d'engagement a diminué au cours des dernières décennies.

Certains éditeurs majeurs comme Reddit, Quora ou The Verge ont pourtant bénéficié d’une meilleure exposition dans les Overviews, signe que la hiérarchie algorithmique évolue. Le SEO américain se réinvente donc autour de l’E‑E‑A‑T, du contenu narratif, et du balisage sémantique renforcé.

En Espagne, le déploiement d’AI Overview a eu lieu discrètement début 2025, mais les effets ont été similaires : les sites généralistes, notamment ceux orientés actu, lifestyle ou guides non spécialisés, ont vu leur trafic fondre de 30 à 60 % selon les premiers retours. La presse espagnole, qui repose encore beaucoup sur le modèle adtech classique (visibilité + clics = revenus), alerte sur l’appauvrissement de l’écosystème local. Le site El Confidencial, dans une analyse publiée en mars, qualifie AI Overview de «machine à siphonner» les visites sans redistribution équitable de la valeur. Certains SEO hispanophones commencent à pivoter vers le contenu de niche ultra ciblé, avec un ancrage local et culturel fort.

La France, en revanche, fait pour l’instant figure d’exception. En raison de la législation sur le droit voisin, du RGPD et des tensions autour de la monétisation des contenus via l’IA, Google n’a pas encore activé AI Overview sur le web francophone.

Pourtant, depuis la core update de mars 2025, de nombreux sites français, même spécialisés, ont subi une perte de visibilité et de trafic, parfois sans explication claire. Certains experts parlent d’un «effet d’ajustement mondial», où la structure des contenus, les intentions de recherche et la qualité perçue sont réévaluées selon des critères plus stricts – en amont du lancement des outils IA. Le JDN estime que 25 à 40 % des sites ont perdu du trafic entre mars et juin 2025, sans qu’AI Overview soit en cause.

Ce triptyque met en évidence une transformation profonde du SEO à l’échelle mondiale. Loin de se résumer à l’arrivée de l’IA dans les SERP, ces évolutions traduisent une révision de fond des algorithmes de Google, visant à privilégier l’expérience utilisateur, la véracité, la pertinence locale et la qualité narrative. Dans ce contexte, comprendre les raisons d’une perte de trafic devient vital pour tout site français souhaitant rester compétitif, même sans AI Overview… pour le moment.

Analyse sectorielle de la perte de trafic — B2C, B2B, B2G aux usa

L’impact des mises à jour de Google en 2025 ne s’est pas réparti de manière uniforme. Au-delà des pays, il est crucial d’analyser comment les secteurs B2C (grand public), B2B (inter-entreprises) et B2G (relations avec les institutions publiques) ont été affectés. Chaque segment possède ses propres dynamiques de contenu, ses formats privilégiés, et son exposition aux résumés IA ou aux critères de pertinence des core updates. Voici une lecture croisée, par zone géographique.

États-Unis – B2C : Une chute brutale à la mesure d’un marché "natif" pour les IA

Le marché B2C américain a été le premier à expérimenter la pleine puissance des AI Overviews de Google, et cette avance s’est traduite par un contrecoup sévère pour une grande partie des acteurs historiques du SEO. La chute de trafic a été aussi brutale que significative, non seulement en raison du mécanisme des résumés générés par l’IA, mais aussi – et surtout – parce que ce marché constitue, aux yeux des modèles linguistiques, un terrain familier, parfaitement maîtrisé. En effet, les intelligences artificielles développées par Google et OpenAI ont été entraînées sur des volumes massifs de données issues du web anglo-saxon, avec une surreprésentation marquée des États-Unis.

La majorité des contenus utilisés pour former ces modèles provient de forums comme Reddit, de blogs américains, de sites e-commerce, de guides pratiques, de documentation technique, et d’articles de presse issus des grands titres nationaux. Les IA ont appris à reconnaître, structurer et anticiper les intentions de recherche typiques de ce public. Elles comprennent avec une finesse redoutable les subtilités du langage américain, les formats d'attente implicite, la structure des requêtes, et les logiques de consommation propres à la culture du pays. Cela signifie qu’un modèle comme Gemini ou GPT-4 ne se contente pas de comprendre littéralement ce que signifie « best running shoes for flat feet » ; il en saisit également les attentes implicites: comparaison, crédibilité, accessibilité, conseils synthétiques, et appel à l’action.

Dès lors, l’AI Overview déploie des réponses d’une redoutable efficacité sur ces requêtes. Il ne se contente pas d’énumérer trois modèles de chaussures, il les classe, les justifie, et résume l’ensemble de l’intention utilisateur dans une réponse unique, sans obliger à cliquer sur les liens bleus. C’est là que se joue la rupture. La visibilité organique devient presque décorative : la réponse est donnée avant même que l’utilisateur n’ait le temps de s’interroger sur la source. Le trafic ne suit plus.

Les conséquences ont été immédiates. Selon SparkToro et SEOClarity, le taux de clic moyen sur certaines requêtes B2C très concurrentielles est passé de plus de 50 % à moins de 20 %, dans les semaines ayant suivi le lancement. Sur les sujets lifestyle, bien-être, beauté, tech, nutrition ou tourisme, les chutes de trafic oscillent entre 40 et 70 % selon les cas. Les comparateurs de produits, les blogs affiliés, les guides généralistes, mais aussi les plateformes de contenu généré par les utilisateurs ont vu leur audience fondre. La tendance est d’autant plus marquée que ces contenus reposaient souvent sur des structures standardisées, pensées pour le SEO, sans réelle profondeur de narration ni valeur ajoutée humaine.

Ce phénomène n’est pas un simple accident algorithmique. Il s’appuie sur les progrès du machine learning, notamment la capacité des LLM à reconnaître des "patrons de raisonnement" – c’est-à-dire des enchaînements logiques fréquents dans les contenus web. Par exemple, l’IA a appris que lorsqu’un utilisateur tape « how to get rid of bloating fast », il s’attend à une réponse directe, synthétique, rassurante, souvent validée par un avis médical. Elle reproduit donc cette structure avec une fluidité impressionnante, allant jusqu’à reformuler des conseils extraits de centaines de sites, sans avoir besoin de les mentionner. L’utilisateur a le sentiment d’avoir obtenu la réponse. Le clic devient inutile.

Ce paradoxe est cruel. Les États-Unis, qui ont structuré l’histoire du SEO, du blogging, du content marketing et du commerce en ligne depuis deux décennies, se retrouvent pénalisés précisément parce qu’ils ont alimenté les IA qui aujourd’hui les remplacent. Leur maturité digitale se retourne contre eux. L’environnement est si dense, si balisé, que l’IA peut s’y mouvoir en terrain conquis, et proposer des résumés si pertinents qu’ils rendent les contenus originaux presque superflus. Pour les éditeurs, cette efficacité se traduit en manque à gagner massif, en perte de positionnement, en baisse de chiffre d’affaires sur des pages jusqu’alors stratégiques.

Ce qui se joue ici dépasse la simple perte de trafic : c’est une mutation du rôle des contenus eux-mêmes. L’IA ne relaie plus les sites, elle les résume. Elle ne les met plus en valeur, elle s’en inspire sans les créditer. Pour les acteurs B2C américains, cette transformation impose un repositionnement complet : produire un contenu irremplaçable, incarné, vécu, souvent local, avec une identité narrative forte, ou bien risquer d’être simplement contourné par la machine. La pertinence algorithmique ne suffit plus : il faut devenir humainement inimitable.

Ce qui se joue ici dépasse largement la mécanique du référencement ou les jeux d’optimisation de balises. C’est une révolution ontologique dans la manière dont le contenu est lu, compris, et restitué par des intelligences artificielles. À la racine, les modèles de langage tels que ceux utilisés par Google ou OpenAI sont conçus pour analyser le monde selon un raisonnement linéaire et convergent. Leur architecture neuronale est optimisée pour identifier des patterns, reconnaître des structures récurrentes, et produire des réponses médianes – à la fois statistiquement solides et linguistiquement fluides. Autrement dit, l’IA excelle à synthétiser ce qui est déjà dit, ce qui est commun, ce qui est fréquent.

Ce fonctionnement limite intrinsèquement sa capacité à restituer des idées divergentes, systémiques, incarnées dans des trajectoires humaines non linéaires. Là où l’IA reconstitue des synthèses à partir de milliers de textes similaires, une personne singulière, dotée d’une pensée arborescente ou systémique, connecte intuitivement des domaines hétérogènes, croise des angles inattendus, mobilise son vécu pour créer du sens là où la machine applique un calcul.

C’est ici que réside une véritable stratégie de résistance à la dilution par les résumés IA : créer du contenu non résumable, car il est porteur d’une logique de pensée décalée, sensorielle, multidimensionnelle. Il ne s’agit plus seulement de rédiger un texte SEO friendly, mais de manifester une présence humaine et cognitive dans le texte. Une anecdote vécue, un point de bascule personnel, une colère sourde, un terme ultra-spécifique sorti d’un lexique professionnel oublié : tout cela échappe à l’IA, car ces signaux ne sont ni dominants, ni modélisables.

Les données le confirment : selon une étude de Content Science Review menée en 2024, les contenus B2C combinant témoignage personnel, lexique technique et prise de position engagée obtiennent une durée moyenne de lecture supérieure de 63 % par rapport à des articles informatifs classiques. Sur les requêtes longues et transactionnelles, ces contenus atypiques sont aussi 3,4 fois plus partagés sur les réseaux sociaux, preuve qu’ils suscitent de l’adhésion, donc de la conversion potentielle.

Cette résistance sémantique et narrative est d’autant plus accessible aux profils neuroatypiques, en particulier les personnes à haut potentiel, les autistes ou les créateurs à pensée divergente. Leur manière naturelle de relier des idées, d’explorer les interstices, de dire ce que personne ne dit, peut devenir un levier stratégique pour les sites qui veulent survivre dans un écosystème sur-automatisé. Ces profils sont capables de produire des contenus hybrides, mêlant rigueur technique, profondeur expérientielle et langage décalé, inclassable. Or c’est précisément ce que les IA n’arrivent pas encore à reproduire.

Ce type de contenu ne cherche pas à cocher les cases de l’algorithme, mais à faire surgir du sens là où la logique probabiliste ne l’attend pas. Il repose sur une forme d'intelligence narrative non linéaire, une capacité à créer des ruptures de ton, à surprendre l’interface par des articulations rares. En intégrant ce niveau de complexité humaine dans leur stratégie éditoriale, les marques B2C peuvent redevenir lisibles, désirables, et surtout irréductibles à un simple résumé IA.

États-Unis – B2B : Une baisse modérée mais révélatrice d’un tri qualitatif

Dans l’univers B2B américain, la baisse de trafic organique observée depuis le printemps 2025 a été moins spectaculaire que dans le B2C, mais elle n’en reste pas moins significative. Estimée entre 15 et 25 % selon les secteurs, cette perte reste souvent sous-estimée, car elle est plus diffuse, plus silencieuse, et affecte principalement des contenus intermédiaires : blogs, guides éducatifs, articles de vulgarisation sectorielle. Contrairement au B2C, ce n’est pas l’AI Overview qui a précipité cette érosion, mais la core update de mars 2025, qui a opéré un tri net entre les contenus à réelle valeur ajoutée et ceux jugés insuffisamment solides sur le plan structurel, sémantique ou informationnel.

Les contenus les plus touchés sont ceux que l’on pourrait qualifier de "faux premium" : des textes de 800 à 1 500 mots, vaguement pédagogiques, produits pour nourrir une stratégie de content marketing sans réel ancrage dans l’expertise. Bien souvent, ces articles ont été rédigés par des IA ou des rédacteurs peu familiers du secteur, avec un objectif clair : générer du trafic sur des requêtes long tail sans nécessairement creuser le fond du sujet. En apparence, ils sont propres, bien structurés, avec des titres optimisés, des H2 et une meta description soignée. Mais ils manquent d’âme, de pertinence technique, de prise de position ou de données originales. Google, avec sa core update, les a tout simplement relégués plus bas dans la SERP.

Ce phénomène s’explique aussi par l’évolution de la maturité algorithmique de Google, qui s’appuie de plus en plus sur des signaux de confiance : sources citées, profondeur sémantique, présence d’exemples concrets, balisage riche (schema.org), voire données de navigation (temps passé, taux de retour). Dans un univers B2B où les requêtes sont moins nombreuses mais plus ciblées, la différence entre un contenu superficiel et une page d’expert devient décisive. Un article sur « comment choisir une solution ERP pour PME industrielle » doit aujourd’hui intégrer un raisonnement métier, une connaissance du cycle de vente, et des comparatifs précis, faute de quoi il sera assimilé à du remplissage éditorial.

Par ailleurs, une part croissante des contenus B2B américains a été générée ou dopée par IA, parfois sans relecture humaine. Ces textes, souvent trop lisses, rédigés dans un anglais standardisé, saturent les SERP de contenu redondant. Google semble avoir enclenché un processus de nettoyage, favorisant les contenus signés, ancrés dans un discours d’expert, porteurs de signaux E-E-A-T (Experience, Expertise, Authority, Trustworthiness). Le simple fait d’avoir un blog n’est plus un avantage compétitif : seul compte désormais ce que l’on y dit, et la manière dont on le dit.

Enfin, il faut noter que le B2B reste un univers où la conversion ne passe pas forcément par le clic, ce qui rend la baisse de trafic moins douloureuse en apparence. Une fiche produit bien référencée, un tunnel de demande de devis, ou une landing page technique restent efficaces. Mais les entreprises qui misaient sur le contenu de surface pour alimenter le haut de leur tunnel (awareness stage) doivent aujourd’hui revoir leur copie. La core update a rebattu les cartes, poussant à produire un contenu utile, documenté, incarné, capable de résister à la normalisation imposée par les IA.

États-Unis – B2G : Résilience algorithmique par autorité institutionnelle

Dans l’univers B2G américain, les fournisseurs, cabinets d’ingénierie ou éditeurs de solutions s’adressant aux administrations et aux agences publiques ont été relativement épargnés par la core update de mars 2025. En apparence, peu de changements. Mais en réalité, leur stabilité tient à un pilier central du modèle de Google.com : la primauté absolue du profil de liens dans l’évaluation algorithmique.

Google.com est historiquement et structurellement backlink-centric. Cela signifie que sa manière de classer les résultats, de filtrer les signaux de qualité et d’évaluer la fiabilité d’un site repose, encore aujourd’hui, en grande partie sur la nature, la quantité et la provenance des liens entrants. Cette approche est héritée du PageRank originel, mais elle reste profondément ancrée dans le cœur de l’écosystème Google. Même les évolutions récentes vers l’E-E-A-T ou l’analyse sémantique ne suppriment pas cette dynamique : elles la complètent.

Or, dans le domaine du B2G, les sites qui bénéficient de backlinks institutionnels issus de domaines .gov ou .edu partent avec une longueur d’avance considérable. Ces liens proviennent d’écosystèmes fermés, difficilement manipulables, souvent le fruit de partenariats, d’appels d’offres remportés ou de citations officielles. Ils confèrent à ceux qui les obtiennent un authority score très élevé, souvent situé entre 70 et 90, ce qui surpasse de loin les scores moyens du B2B privé.

Ce n’est pas qu’une question de référencement. Un lien provenant d’un site comme energy.gov, fda.gov ou data.gov est interprété par Google comme un gage de confiance systémique. Il agit comme une preuve d’utilité publique, de conformité réglementaire, voire d’institutionnalisation de l’entreprise citée. Sur un marché américain hyper-concurrentiel, cela suffit à neutraliser temporairement les effets d’une core update, même sévère.

Dans les faits, les sites B2G les mieux positionnés ont été ceux capables de maintenir un profil de netlinking fort, stable et ancré dans les sphères institutionnelles. Cela concerne aussi des sites liés aux normes, à la cybersécurité, aux achats publics, aux infrastructures critiques ou à l’ingénierie publique. Leur contenu est parfois peu dynamique sur le plan éditorial, mais leur toile de confiance algorithmique les protège de la volatilité.

Cependant, la core update a tout de même opéré un filtrage. Les sites affichant une autorité élevée mais proposant des contenus obsolètes, creux ou non mis à jour sur des thématiques réglementaires précises (par exemple le RGPD, les normes NIST, les audits de sécurité) ont pu perdre des positions, notamment sur Google News et sur les requêtes sensibles. L’algorithme semble désormais croiser deux couches : le signal de confiance institutionnelle d’un côté, et la fraîcheur + profondeur du contenu de l’autre. Ceux qui combinent les deux sortent renforcés.

Dans ce contexte, le B2G apparaît comme un des rares segments où l’ancien paradigme du SEO – basé sur l’autorité perçue via les liens – reste pleinement opérant, mais à condition de maintenir une exigence éditoriale élevée. C’est un espace où l’hyperfiabilité prime sur la quantité, et où les liens font plus que signaler une popularité : ils traduisent une légitimité structurelle dans l’architecture informationnelle du web américain.

On comprend alors l'intention profonde de Google qui est à la racine de sa création et de son positionnement sur le marché des moteurs de recherche. Répondre de manière fiable aux intentions de recherche et aux requêtes des utilisateurs. Cette exigence s'est accrue avec l'arrivée sur le marché de la recherche informationnelle de Chat gpt 4.  Open Ai gagnant des parts de marché sur la recherche informationnelle, Google devait reprendre la main sur ce marché pour continuer à fidéliser les utilisateurs dans son écosystème.

Analyse sectorielle de la perte de trafic — B2C, B2B, B2G EN ESPAGNE

B2C : un écosystème vulnérable, entre dépendance au trafic organique et faibles marges de manœuvre

Depuis le déploiement d’AI Overview sur Google.es début 2025, les sites B2C espagnols, notamment les généralistes opérant dans les secteurs du tourisme, de la gastronomie et de la consommation, ont été durement touchés. La baisse de trafic organique est estimée entre 30 et 50 %, parfois davantage pour les acteurs les plus dépendants des requêtes génériques. Des expressions aussi simples que « mejor hotel en Barcelona » ou « receta gazpacho andaluz » déclenchent désormais des résumés générés par l’intelligence artificielle, souvent consultés directement dans la SERP mobile, sans clic. Ce phénomène a entraîné une chute brutale de la visibilité pour les portails de contenus, les annuaires de services et les petits médias locaux.

Mais derrière cette dynamique, il faut comprendre que Google.es n’est pas un simple miroir régional de Google.com. S’il repose sur la même architecture algorithmique globale, son écosystème sémantique, commercial et stratégique est très différent. En Espagne, les investissements marketing dans les sites web restent, en moyenne, beaucoup plus modestes que dans les pays anglo-saxons. Les PME et les indépendants y consacrent souvent un budget minimal, se reposant sur des solutions clés en main, des sites peu optimisés, ou des prestataires low cost. Le contenu est parfois négligé, rarement mis à jour, et très rarement structuré autour de véritables stratégies de marque ou de référencement éditorial sur le long terme.

Dans ce contexte, une partie des professionnels du web espagnol a historiquement compensé ce manque d’investissement par des pratiques de SEO plus agressives, voire franchement black hat. Cloaking, backlinks achetés en masse, spinning de contenu, réseaux privés de blogs (PBN) : ces méthodes, largement tolérées jusqu’ici dans certaines niches, ont alimenté un web B2C espagnol extrêmement concurrentiel en façade, mais fragile dans sa structure profonde. Lorsque la core update de Google ou les IA Overview ont commencé à réévaluer les contenus et à redistribuer les signaux de qualité, ces fondations peu solides ont cédé.

Le contraste avec les États-Unis est flagrant. Si les deux marchés ont été frappés par une baisse de clics liée à la présence d’IA en tête de SERP, les sites américains ont souvent bénéficié d’un socle technique et éditorial plus robuste : structure en silos, netlinking raisonné, storytelling maîtrisé, logique d’inbound marketing construite sur des années. En Espagne, même parmi les plateformes nationales, peu de sites disposent d’une autorité comparable, que ce soit en matière de contenu, d’expérience utilisateur ou de netlinking naturel.

L’autre spécificité du web hispanophone tient au fait que la barrière linguistique joue moins en faveur des acteurs locaux. Un contenu rédigé en espagnol peut facilement être concurrencé, dans les SERP internationales, par des sites sud-américains, voire américains, qui traduisent ou localisent partiellement leurs offres. Cela crée un brouillage algorithmique supplémentaire, où les sites espagnols doivent se battre pour exister dans une langue partagée par des centaines de millions d’internautes dans le monde. L’IA, qui ne distingue pas les usages culturels subtils, synthétise les réponses à partir de corpus pan-hispaniques, et finit par invisibiliser les acteurs locaux au profit d’une réponse standardisée.

C’est dans ce contexte que la perte de trafic B2C en Espagne prend tout son sens. Il ne s’agit pas seulement d’une conséquence directe du déploiement d’AI Overview, mais du révélateur d’un écosystème digital trop longtemps sous-capitalisé, techniquement fragile, et dépendant d’un SEO court-termiste. Les indépendants du tourisme, les petits producteurs de contenus culinaires, ou les comparateurs de services en ligne se retrouvent marginalisés, faute d’avoir pu investir dans une stratégie de différenciation durable.

Pour inverser cette tendance, il ne suffira pas d’échapper à l’IA. Il faudra repenser l’identité éditoriale, la valeur humaine du contenu, et reconstruire une autorité fondée sur l’expérience réelle, les ancrages locaux, et une approche plus ambitieuse du web. Cela nécessite un changement culturel autant que technique, dans un pays où le digital reste encore perçu, trop souvent, comme un coût à minimiser plutôt qu’un capital à faire fructifier.

B2B : entre ancrage local, sobriété numérique et opportunités durables

Contrairement au secteur B2C, fortement exposé aux pertes de trafic liées à l’arrivée de l’AI Overview sur Google.es, le B2B espagnol a montré une résistance plus robuste et plus silencieuse. La plupart des entreprises industrielles, agroalimentaires ou logistiques de taille moyenne, qui constituent le cœur du tissu économique espagnol, ont connu des évolutions de positionnement relativement stables dans les SERP. Si certaines ont perdu des requêtes génériques à faible taux de conversion, elles ont conservé, voire amélioré, leur visibilité sur les recherches professionnelles à forte intention : normes de certification, équipements industriels spécifiques, logistique du froid, maintenance technique ou exportation agroalimentaire.

Cette stabilité apparente n’est pas le fruit du hasard. Dans un pays où la transformation numérique avance à un rythme plus mesuré que dans les grandes économies anglo-saxonnes, une majorité de PME espagnoles ont développé leur présence en ligne de manière sobre mais ciblée. Leurs sites ne brillent pas toujours par leur design ou leur interactivité, mais ils bénéficient souvent d’un positionnement local fort, ancré dans une région, une filière ou un savoir-faire. Ces entreprises ne cherchent pas à conquérir l’algorithme de Google, mais à être trouvées par ceux qui les cherchent déjà, avec des requêtes longues, précises, souvent en lien avec une démarche commerciale ou réglementaire avancée.

C’est précisément ce caractère "utilitaire" de la recherche B2B qui les protège partiellement de l’IA générative. Les requêtes adressées aux entreprises B2B sont, pour l’instant, moins exposées à l’AI Overview, car elles nécessitent une granularité technique, une compréhension sectorielle ou une contextualisation que les IA génératives ne restituent pas encore de manière fiable. Lorsque l’on cherche une solution de traçabilité pour l’exportation de fruits à noyaux, ou un prestataire d’emballage alimentaire sous atmosphère modifiée, l’utilisateur reste méfiant face à une réponse IA généraliste. Il cherche des noms d’entreprises, des certifications, des retours d’expérience ou des documents téléchargeables.

Ce comportement offre un répit au SEO B2B espagnol, mais il masque aussi une fragilité structurelle. Car malgré cette bonne tenue des positions, la majorité des sites web B2B restent peu entretenus, rarement optimisés, et souvent construits sans réelle stratégie éditoriale. Très peu d’entre eux investissent dans des contenus réguliers à haute valeur ajoutée, dans des stratégies de netlinking organique, ou dans des blogs techniques pouvant faire autorité sur leur marché. Le référencement repose alors essentiellement sur un petit nombre de pages statiques, parfois efficaces, mais insuffisantes pour capter des intentions plus larges ou pour s’imposer dans des contextes concurrentiels internationaux.

Par ailleurs, le B2B espagnol hérite lui aussi, à sa manière, des pratiques issues du SEO court-termiste. S’il est moins marqué par le black hat que le B2C, il n’est pas rare de croiser des sites vitrine gonflés artificiellement par des backlinks de faible qualité ou par des répertoires peu pertinents. Lorsque la core update de Google redéfinit les critères de qualité autour de l’expérience, de la fiabilité et de l’expertise, ces fragilités deviennent plus visibles. Plusieurs entreprises, notamment dans le secteur du conseil technique, ont vu leurs pages “explicatives” rétrogradées au profit de concurrents mieux structurés, mieux balisés, et plus engagés dans la production de contenu original.

Enfin, il faut souligner un paradoxe propre au B2B espagnol. Ce secteur dispose d’un potentiel énorme : compétences industrielles solides, liens avec les collectivités, capacité d’innovation locale. Pourtant, il sous-exploite le levier digital pour s’internationaliser ou consolider sa présence en ligne. La majorité des contenus sont uniquement rédigés en espagnol, souvent mal traduits s’ils sont disponibles en anglais ou en français, et les entreprises hésitent encore à s’approprier les outils d’optimisation fine : données structurées, cocons sémantiques, tracking des conversions, tunnel de contenu orienté lead.

Ainsi, si le B2B espagnol a su rester visible en 2025 grâce à la pertinence directe de ses offres et à la sobriété de son référencement, il lui manque encore un pas stratégique pour devenir vraiment maître de son destin digital. Ce n’est pas la core update qui menace ce secteur, mais le risque de stagnation dans un environnement qui évolue vite. Saisir cette dynamique, investir intelligemment dans du contenu spécialisé, structuré, incarné, pourrait permettre aux PME espagnoles de dépasser leur périmètre régional et d’entrer pleinement dans une logique de rayonnement international.

B2G : sites discrets, autorité faible, et fossé algorithmique avec les États-Unis

Dans le paysage numérique espagnol, le segment B2G – c’est-à-dire les entreprises ou prestataires qui travaillent avec les institutions publiques, les collectivités locales ou les marchés réglementés – semble à première vue en marge des grands bouleversements du SEO observés depuis 2025. Les requêtes les plus spécifiques de ce secteur, comme « auditoría energética edificios públicos », « software control de acceso ayuntamientos » ou « mantenimiento de redes de agua municipales », génèrent peu de réponses par IA Overview, même depuis son déploiement en Espagne. Leur complexité technique, leur ancrage contextuel et leur faible fréquence moyenne de recherche les rendent peu propices à la génération de résumés IA automatisés.

Cependant, derrière cette relative stabilité apparente, la core update de mars 2025 a laissé des traces profondes. Et ce sont précisément les faiblesses structurelles du web B2G espagnol qui ont été mises au jour. Dans de nombreux cas, ces sites sont pauvres en contenu, peu actualisés, limités à des pages vitrines figées qui n’ont pas évolué depuis plusieurs années. Très peu intègrent des blogs, des études de cas ou des analyses réglementaires sectorielles, comme cela peut être attendu dans un contexte où la transparence, la compétence et la fiabilité sont des valeurs décisives. Or, c’est justement sur ces signaux que les nouvelles versions de l’algorithme de Google fondent une grande partie de leur logique de classement.

La différence avec Google.com, et plus largement avec le marché américain, ne tient pas tant à l’algorithme – qui reste globalement unifié dans son fonctionnement – qu’à la richesse sémantique de l’écosystème B2G anglophone, et à la densité de netlinking institutionnel qui y circule. Sur Google.com, les entreprises qui travaillent avec des agences fédérales ou des entités publiques bénéficient souvent de backlinks puissants et hautement autoritaires provenant de domaines en .gov, .edu ou de sites gouvernementaux tiers. Ces liens, souvent très stables dans le temps, constituent un socle d’autorité extrêmement robuste, que Google valorise fortement dans son classement. À cela s’ajoute une pratique de publication régulière : études, témoignages, livres blancs, tribunes ou rapports d’activité font partie du contenu natif de nombreux prestataires B2G aux États-Unis.

En Espagne, la situation est très différente. Le backlinking institutionnel y est beaucoup plus rare, car les entités publiques créent peu de contenus externes et lient rarement vers des entreprises, même partenaires. Les liens provenant de domaines en .gob.es ou .edu.es sont peu nombreux, rarement profonds, souvent limités à des appels d’offres archivés ou à des listes de prestataires. Il n’existe pas en Espagne de culture numérique forte autour de la documentation publique accessible et maillée. Par conséquent, les sites privés B2G ne bénéficient que rarement de ces signaux d’autorité externe.

Ce déséquilibre est accentué par le fait que très peu de ces entreprises développent une stratégie SEO proactive. L’absence de contenu technique ou réglementaire régulier, combinée à un netlinking passif, conduit à un profil algorithmique faible, malgré parfois une expertise métier réelle. Or, dans le cadre des mises à jour de Google en 2025, l’absence d’autorité, la stagnation éditoriale et le manque d’ancrage externe sont devenus des motifs de déclassement silencieux.

Autre différence notable : sur Google.com, les contenus B2G bénéficient d’un écosystème éditorial connexe. Ils sont souvent cités dans des rapports d’agences, repris dans la presse spécialisée, indexés dans des bases de données professionnelles ouvertes. Cela crée un environnement riche, interconnecté, que l’algorithme peut interpréter comme un tissu de confiance. En Espagne, la fragmentation du paysage numérique, la faible production éditoriale dans les secteurs publics, et l'absence d’une logique de référencement ouverte rendent ces contextes bien plus isolés.

Ainsi, si les prestataires B2G espagnols ont parfois échappé à une chute brutale de trafic, c’est souvent par défaut d’exposition, et non par force d’optimisation. La core update de mars 2025 a déjà commencé à déclasser certains sites à contenu obsolète, trop pauvre ou sans crédibilité externe. Mais ce n’est là qu’un premier signe. Le véritable risque est que, dans un environnement où les critères de qualité se durcissent mois après mois, les prestataires espagnols les moins préparés voient leur visibilité fondre à mesure que d'autres, mieux structurés, mieux référencés, et parfois étrangers, prennent leur place dans les SERP locales.

Pour rester compétitifs, il ne suffira plus de répondre techniquement à un appel d’offres. Il faudra également exister sur le plan sémantique, éditorial et algorithmique, avec un contenu clair, riche, structuré, crédible, et intégré dans un maillage web lisible. Faute de quoi, même les marchés publics, historiquement plus stables, deviendront inaccessibles en ligne à ceux qui n’auront pas su construire leur autorité numérique.

Bref si le gouvernement espagnol veut vraiment soutenir l'activité économique des entreprises privées, il a tout intérêt à faire des backlinks vers certaines entreprises grâce à des articles de blogs spécialisés et contextualisés. Cela bien moins chère que de la subvention publique et peut booster les exportations.

Analyse sectorielle de la perte de trafic — B2C, B2B, B2G EN FRANCE

B2C : l’impact silencieux des Core Updates dans un écosystème contraint

Alors même que la France n’a pas encore été concernée par le déploiement des AI Overviews dans ses pages de résultats, le web B2C francophone a néanmoins subi, depuis mars 2025, une baisse de trafic significative. Cette chute, estimée entre 20 et 45 % selon les sources croisées du Journal du Net et de l’outil Sistrix, touche en priorité les secteurs historiquement exposés aux requêtes transactionnelles ou informatives de masse : tourisme, bien-être, santé alternative, annuaires locaux, comparateurs, blogs lifestyle ou parenting. Pourtant, aucun résumé génératif n’est encore en jeu sur Google.fr. C’est donc dans l’algorithme lui-même que se loge la cause : la core update de mars 2025, déployée de manière globale, a redéfini les signaux de qualité, de légitimité et d’utilité du contenu.

Pour comprendre ce phénomène, il faut revenir à une donnée structurelle trop souvent négligée : Google.fr n’est pas une simple déclinaison de Google.com. Il fonctionne avec la même base algorithmique, mais dans un écosystème linguistique, éditorial et juridique très spécifique. La langue française est beaucoup moins standardisée que l’anglais américain, et son usage web reste marqué par des subtilités culturelles fortes : tournures complexes, formulations indirectes, références implicites, mais aussi une forte tradition d’écriture discursive. Cela rend la lisibilité algorithmique des contenus plus délicate, surtout lorsque le site ne travaille pas activement ses métadonnées, ses titres Hn ou ses contenus enrichis.

À cela s’ajoute une densité éditoriale moins structurée que dans les pays anglo-saxons. Très peu de sites français ont investi massivement dans des cocons sémantiques profonds, dans des chaînes de contenu interreliées ou dans des stratégies de contenu à forte granularité. Le netlinking reste limité à quelques médias majeurs, et les liens croisés entre acteurs du même secteur sont rares, par manque de culture collaborative. L’autorité algorithmique repose donc, pour une majorité de sites, sur un nombre restreint de signaux, ce qui les rend plus vulnérables à toute modification des pondérations dans le ranking.

Le secteur du B2C français est également caractérisé par une stratégie éditoriale souvent défensive. Face aux contraintes juridiques (RGPD, droit voisin, limites sur la personnalisation des cookies), de nombreux éditeurs ont renoncé à certaines fonctionnalités interactives ou analytiques, ce qui complique l’optimisation continue des contenus. Par ailleurs, la lente adoption de balisages structurés comme schema.org, les erreurs de base dans la hiérarchisation des titres, ou l’absence de FAQ et de rich snippets contribuent à une sous-exploitation du potentiel de visibilité dans les SERP.

La core update de mars 2025 n’a donc pas puni tous les sites indistinctement : elle a favorisé les contenus fiables, à jour, sourcés, bien structurés et porteurs d’une réelle expertise. Ce sont les sites qui ont investi dans la rédaction humaine qualifiée, dans l’intégration de données vérifiables, dans la citation de sources et dans la régularité de publication qui s’en sortent le mieux. À l’inverse, ceux qui reposaient sur des articles anciens réoptimisés à la marge, sur des contenus généralistes générés automatiquement ou sur une logique SEO de volume plutôt que de profondeur ont vu leur visibilité décliner, parfois drastiquement.

La spécificité du marché français tient aussi à sa sociologie de l’internaute. Les utilisateurs francophones sont plus méfiants vis-à-vis des contenus sponsorisés, plus sensibles à la réputation des sources, et plus enclins à comparer avant d’acheter. Cela renforce le poids de l’autorité perçue, du style rédactionnel, de la présentation du contenu. Google.fr, en écho à ces habitudes, semble affiner son interprétation des signaux comportementaux : taux de rebond, temps passé sur la page, interaction avec les blocs internes. Ces données influencent désormais de manière plus nette la visibilité, même en l’absence de résumé IA en haut des résultats.

Enfin, il faut noter que la France, à la différence de l’Espagne ou des États-Unis, est dans une zone d’attente stratégique. Google doit composer avec un environnement réglementaire complexe, un droit voisin qui freine l’indexation large des contenus, et une pression politique plus forte sur la régulation des IA génératives. En l’absence d’AI Overview, c’est donc la mécanique interne du moteur qui opère la sélection, sur des critères de qualité, de densité sémantique, d’intégration UX et de fiabilité perçue. Et ce mécanisme s’est considérablement durci depuis la core update de mars.

La leçon est claire : ce n’est pas parce que l’IA ne résume pas encore les contenus que Google.fr ne les juge pas. La baisse de trafic observée dans le B2C français n’est pas un effet secondaire mais bien le signe avant-coureur d’une transition profonde, dans laquelle seuls les contenus véritablement utiles, bien construits et crédibles résisteront à l’automatisation des réponses et au durcissement des exigences éditoriales.

B2B : entre inertie éditoriale et consolidation des écosystèmes solides

Dans le paysage numérique français, le secteur B2B semble avoir globalement mieux résisté que le B2C à la core update de mars 2025. Il n’a pas connu de chute aussi brutale ni aussi immédiate, principalement parce que ses requêtes sont plus spécifiques, souvent techniques, et que son cycle de conversion repose davantage sur une logique relationnelle et moins sur le volume de clics organiques. Pourtant, cette résistance est relative, car de nombreux sites professionnels ont été affectés silencieusement, sans baisse spectaculaire de trafic, mais avec une érosion progressive de leur visibilité sur des requêtes-clés.

Les premiers sites touchés par cette vague d’ajustement sont ceux qui avaient été construits selon une logique de contenu superficiel ou semi-automatisé. En France, beaucoup d’entreprises industrielles, de cabinets de conseil, d’éditeurs de logiciels ou de sociétés de services B2B avaient mis en place des blogs ou des pages d’expertise essentiellement pour cocher la case “SEO”. Or, ces pages présentaient souvent des faiblesses rédhibitoires au regard des nouveaux critères de Google : contenus recyclés, reformulations à partir d’articles existants, rédaction approximative confiée à des prestataires sans réelle compétence métier, maillage interne absent ou mal pensé, balisage inexistant, expérience utilisateur négligée.

Derrière ces défauts, c’est toute une culture éditoriale trop défensive qui est remise en cause. Beaucoup d’entreprises ont publié pour publier, en suivant des grilles de mots-clés génériques, sans prendre le temps de développer une ligne éditoriale cohérente, ni de réfléchir à l’utilité réelle de leur contenu pour le lecteur professionnel. Elles ont ainsi saturé leur site de contenus tièdes, parfois orientés SEO, mais sans fond ni conviction. Ces contenus ont été les premiers ciblés par la core update de mars 2025, qui a renforcé les exigences en matière d’expérience, d’expertise, d’autorité et de fiabilité (E-E-A-T).

À l’inverse, certains sites ont vu leur positionnement s’améliorer, parfois de façon spectaculaire. Ce sont ceux qui, depuis plusieurs années, ont adopté une stratégie éditoriale claire et structurée, pensée pour le long terme. Leur contenu est rédigé par des personnes compétentes, parfois internes à l’entreprise, avec une véritable valeur technique, un langage de métier, des références croisées à la réglementation ou à l’actualité sectorielle. Ces sites intègrent souvent une architecture en silos, où chaque thème est développé en profondeur à travers un maillage interne cohérent. Les balises sont correctement hiérarchisées, les pages importantes reçoivent des liens internes pertinents, les articles les plus anciens sont régulièrement mis à jour pour rester compétitifs.

Là encore, Google.fr exprime une spécificité. Le moteur valorise fortement les signaux de qualité en langue française, mais il est particulièrement exigeant sur la cohérence sémantique, la structuration logique et l’utilité réelle des contenus. Il ne suffit plus d’avoir des pages “blog” ou “actualités” pour occuper un espace dans les SERP. Il faut produire un contenu qui résout une problématique concrète, qui répond à une intention claire, qui fait autorité. Cela vaut pour tous les secteurs B2B : de l’aéronautique à l’agroalimentaire, du juridique au bâtiment, de l’export au numérique.

La dimension locale joue aussi un rôle. De plus en plus, les requêtes B2B intègrent une dimension territoriale ou contextuelle. Être référencé sur “audit énergétique industrie Pays de la Loire” ou “cabinet conformité RGPD Toulouse” implique de produire un contenu ancré dans une réalité régionale, avec une sémantique proche des attentes du terrain. Les entreprises qui ont su capter cette spécificité – en publiant des cas clients, en participant à des appels d’offres publics, en relayant leur activité dans des clusters ou des réseaux locaux – bénéficient d’un ancrage plus robuste, difficile à concurrencer par des sites plus généralistes.

Enfin, l’évolution du marché B2B en France pousse aussi à une hybridation des formats, dans laquelle le texte n’est plus seul. Les entreprises qui couplent leur stratégie éditoriale avec de la vidéo, des webinaires intégrés, des infographies interactives, ou des documents téléchargeables améliorent sensiblement leur temps de consultation et leur taux d’engagement. Ce sont précisément ces signaux comportementaux que Google commence à intégrer plus finement dans son évaluation. Le SEO B2B de 2025 ne se limite plus au texte bien optimisé : il s’inscrit dans une expérience digitale complète, sobre, crédible, utile.

Ce réajustement est une opportunité déguisée. Il contraint les entreprises à redéfinir leur présence en ligne non comme une vitrine, mais comme un écosystème de confiance. Celles qui investiront intelligemment dans un contenu vivant, professionnel, original et structuré pourront asseoir leur autorité sur la durée. Les autres continueront à produire du contenu invisible, ou pire : décliné lentement mais sûrement vers l’obsolescence algorithmique.

France – B2G : une visibilité fragilisée par la montée des sites institutionnels

Le secteur B2G en France – c’est-à-dire les entreprises s’adressant aux institutions, collectivités et administrations – a longtemps bénéficié d’un positionnement stable dans les moteurs de recherche. Ces acteurs opèrent sur des niches très spécifiques, souvent en lien avec la commande publique, la conformité réglementaire, les marchés de la transition écologique, ou la cybersécurité des collectivités locales. Leur trafic repose en partie sur des requêtes précises, telles que « logiciel RGPD pour mairie », « audit énergétique bâtiments publics » ou encore « solution dématérialisation marchés publics ». Ces requêtes ne génèrent pas de très gros volumes, mais elles sont à très haute valeur ajoutée, car elles ciblent directement des donneurs d’ordre publics ou parapublics.

Depuis la core update de mars 2025, le paysage a pourtant évolué. L’impact sur les sites B2G n’a pas été massif, mais il est bien réel. Plusieurs plateformes privées référencées sur ces sujets ont vu une partie de leur visibilité s’éroder. Ce phénomène est en partie lié à un recentrage de Google.fr sur des pages institutionnelles considérées comme plus fiables, en particulier lorsqu’il s’agit de sujets réglementaires, juridiques ou liés aux normes. Ainsi, sur des requêtes comme « obligations accessibilité ERP 2025 » ou « sécurité numérique collectivités », Google privilégie désormais les contenus produits par des sites gouvernementaux, des portails publics comme service-public.fr, legifrance.gouv.fr ou les plateformes régionales pilotées par l’État.

Cette évolution ne doit cependant pas être interprétée comme une condamnation du SEO B2G, mais plutôt comme une exigence accrue en matière d’autorité, de précision et de structure éditoriale. Les entreprises qui continuent à obtenir de bons résultats sont celles qui adoptent une approche rigoureuse, structurée et “tunnelisée” de leurs contenus : chaque page cible une intention unique, fournit une réponse claire, référencée, contextualisée, et parfois territorialisée. Le référencement thématique – axé sur une expertise juridique, technique ou locale – est donc plus efficace que jamais. Par exemple, une entreprise qui publie un guide détaillé sur « la mise en conformité RGPD dans les établissements scolaires de Nouvelle-Aquitaine », en incluant les textes de loi, les contraintes spécifiques des collectivités et des cas d’usage chiffrés, voit sa valeur perçue par Google nettement renforcée.

Le rôle du netlinking est également central dans ce segment. De nombreux sites B2G français bénéficient d’un solide écosystème de backlinks, issu de leur participation à des projets publics, à des appels d’offres ou à des consortiums. Chaque lien depuis un site institutionnel ou une collectivité locale renforce l’autorité du site fournisseur. Google.fr, à la différence de google.com, reste très sensible à la qualité du maillage externe, mais aussi à son contexte territorial. Un lien depuis une page du département des Landes ou du site d’une communauté de communes de Bretagne a un poids sémantique non négligeable lorsqu’il redirige vers une entreprise qui propose des solutions à ces mêmes territoires.

Autre élément clé : la fraîcheur et l’actualisation des contenus. Beaucoup de sites B2G ont souffert non pas d’un manque de pertinence, mais d’un manque de mise à jour. Des articles ou pages rédigés en 2019 ou 2020, même bien référencés à l’époque, ont perdu du terrain s’ils n’ont pas été adaptés aux nouvelles normes, aux nouveaux dispositifs réglementaires ou aux changements dans les politiques publiques. Google.fr privilégie désormais les contenus vivants, mis à jour régulièrement, qui tiennent compte de l’actualité législative, des appels à projets récents, ou des grandes tendances de la commande publique (transition énergétique, sobriété numérique, mutualisation des moyens…).

Enfin, la structuration technique des sites entre aussi en ligne de compte. Ceux qui ont su mettre en œuvre un balisage sémantique propre, un maillage logique interne, et une accessibilité mobile sans faille sont favorisés. À l’inverse, les plateformes aux CMS vieillissants, aux temps de chargement élevés ou au design peu lisible sur mobile voient leur performance dégradée, notamment sur les requêtes effectuées depuis des téléphones professionnels.

En résumé, le B2G français ne s’effondre pas, mais il se réorganise. Les positions ne dépendent plus uniquement de la présence ou non sur des requêtes-clés, mais de la capacité à créer un contenu crédible, structuré, contextualisé et aligné sur les besoins concrets des institutions. Les entreprises qui abordent ce secteur avec sérieux, expertise et stratégie SEO solide conserveront leur visibilité. Les autres, en revanche, risquent de voir leur trafic migrer doucement mais sûrement vers les pages froides des portails publics. Comme pour l'Espagne si la France veut rester souveraine elle a tout intérêt à encourager les backlinks inter-entreprises et à en faire soir-même vers les entreprises qu'elle estiment nécessaires pour l'économie. C'est mille fois plus efficace que la logique répressive.

Conclusion et c'est le pompon! 

Google a affirmé que sa capacité à localiser les résultats en fonction du lieu de l’internaute est aujourd’hui suffisamment avancée pour se passer des domaines spécifiques par pays. Depuis 2017, même l’usage de google.com est redirigé vers les versions locales sans perte de connexion à la langue ou au contexte LinkedIn. Ce changement simplifie l’infrastructure technique, centralise les données, et facilite le déploiement futur de fonctions IA transversales, tout en conservant les obligations légales propres à chaque pays.

Avec ces analyses sectorielles, vous comprenez bien que tant les espagnols que les français, le jour où google.fr ou google.es disparaissent cela compliquera la visibilité des entreprises françaises et espagnoles. 

Selon les projections de Sistrix, environ 37 à 48 % des sites ayant connu des chutes de visibilité lors de la core update de mars 2024 ne se sont jamais réellement relevés. Si l’on applique cette tendance à la France et à l’Espagne, où des milliers de sites bénéficient encore de leur ancienneté sur google.fr ou google.es pour se maintenir, on peut estimer que 30 à 50 % d’entre eux pourraient être déréférencés ou relégués dès le basculement définitif vers google.com, car ils ne seront plus protégés par la géographie, mais évalués sur des critères de compétitivité sémantique et d’intention de recherche globale.

Plus encore, une étude de Searchmetrics montre que les sites ayant un Domain Authority inférieur à 30 ont un risque de désindexation partielle multiplié par 3 s’ils ne disposent ni de maillage propre, ni de contenus différenciants à forte valeur ajoutée. Or, sur le marché français, plus de 65 % des PME-TPE possèdent des sites web dont le score de domaine est inférieur à 25 selon les bases de données de Semrush. Et moins de 20 % utilisent des balises schema.org ou des stratégies de cocon sémantique.

Si demain, l’accès aux résultats est entièrement centralisé depuis google.com, cela signifie que la compétition se fera à armes égales, mais dans une arène mondiale, et non plus nationale. Pour les acteurs français ou hispaniques sans stratégie SEO structurée, le risque est clair : disparaître en quelques semaines des premières pages, au profit de sites américains, indiens ou même allemands, bien mieux entraînés, mieux maillés, mieux écrits, parfois enrichis par l’IA… mais avec une expertise réelle.

À terme, la transition vers une indexation sans frontière, IA-centrée, pourrait faire chuter jusqu’à 60 % des sites généralistes (guides, comparateurs, blogs lifestyle) dont le contenu est standardisé, répétitif ou déjà analysé par l’IA dans d’autres langues. Les niches B2B très techniques ou les sites B2G disposant de liens institutionnels survivront, à condition d’être mis à jour, bien structurés, et ancrés dans une logique de contenu original.