consultant web

Bye-Bye les Serps ?

Rédigé par Yann Faurie

Changement de l'expérience utilisateur en recherche web

On pourrait croire, après les annonces de Google I/O en mai 2023 sur la Search Generative Experience, Google Bard ou encore le projet Magi, que le monde du Search tel que nous le connaissons vit ses derniers jours.

Comme bien souvent dans l'univers du web, la notion de temps est élastique : tout peut aller très vite du côté des technologies (nous en avons la preuve depuis GPT 3), mais du côté des usages il en va autrement.

Il suffit de se remémorer les annonces de Google sur l'Index Mobile First. D'une part je vois encore via la Google Search Console, des sites qui sont visités en premier lieu par Google Bot pour desktop, d'autre part ce n'est que l'an dernier que j'ai vraiment vu l'aspect négatif de ne pas avoir de site web responsive. C'est à dire que c'est clairement pénalisant. Il a fallu près de 7 ans. Entre l'annonce de Google le 27.02.2015, et l'an dernier, pour que les effets négatifs se fassent vraiment ressentir sans équivoque. Ce constat s'applique à certains de mes sites éditoriaux. Je pense que s'il s'était agi de site e-commerce, l'impact aurait été beaucoup plus parlant plus tôt.

Depuis quelques jours, nombre de webmasters s'étonnent que les statistiques de tracking Universal Analytics soient toujours remontées. Même si je ne doute pas que ce délai supplémentaire n'atteigne pas la longévité des 7 ans décrits juste avant, c'est encore emblématique des changements qui sont mis en place progressivement chez Google.

L'annonce récente de la nouvelle métrique INP, remplaçant la FID au sein des critères d'évaluations de performances Web Core Vitals, est du même acabit. Le remplacement ferme est prévu en mars 2024. Néanmoins, des emails automatiques ont été envoyés pour prévenir les webmasters de sites obtenant une mauvaise note à cette métrique, et a donc fait couler beaucoup d'encre en quelques jours seulement.

Ce préambule pour annoncer que le changement ne se fera pas en quelques jours ou même semaines, mais que l'utilisation des SERPs telles que nous les connaissons va progressivement basculer.

Pourquoi les SERPs vont disparaître

Parce que la volumétrie actuelle des données, qui va jusqu'à 30 pages de résultats pour une requête, n'a plus vraiment de justification. Surtout que certaines de ses pages comportent des résultats vers le même domaine, malgré ce que Google avait annoncé.

La classification des résultats amène souvent les consultants SEO à tirer des conclusions en fonction de ce qui est proposé. A l'inverse, pendant un temps, Wikipedia squattait 80% du top 10 pour les requêtes aux intentions de recherche informationnelles.

Mais 30 pages de résultats, qui les parcoure ? Principalement les outils SEO et autres logiciels de scraping. Faites le test de votre côté, lancez une recherche sur Google. En général les résultats sont cohérents jusque vers la 9ème page. Variés, parfois éloignés de l'intention de recherche, mais cohérents. Au delà, les résultats sont souvent anecdotiques, c'est à dire que le mot-clé est présent dans la signature, dans un document interne au site, mais qu'il ne représente plus l'objet principal du site.

Alors pourquoi garder parfois jusqu'à 30 pages, parfois jusqu'à 42 pages pour "réchauffement climatique" ? Sur un sujet aussi sensible, le travail des lobbys a lessivé les mentalité. Personne ne va avoir le courage de consulter 420 documents sur ce thème. Pas même l'IA de Google Bard qui me répond "je ne suis pas un expert en climatologie et je ne peux pas fournir des informations sur le réchauffement climatique."

C'est pour cette raison que je pense que les SERPs vont subir un changement. Voici quelques explications :

  • GREEN IT : Maintenir toutes ces ressources demande de l'énergie pour faire fonctionner les datacenters et autres algorithmes, des ressources informatiques pour traiter les informations et parcourir le web, des centres de stockage pour toutes ces données... Cela va à l'encontre des défis auxquels l'Humanité doit faire face.
  • Elevation du niveau de qualité requis pour figurer dans les SERPs : dans la grande majorité des cas, on trouve des doublons ou des sites qui n'ont aucune légitimité à figurer dans les SERPs. Premier coupable : le SEO qui manipule le critère Autorité de l'E-E-A-T des Google Quality Raters avec des campagnes de netlinking.
  • Idem, mais pour les sites qui ont été hackés et récupèrent l'autorité de sites qui n'existent plus, ou concernent des domaine expirés, ou donnent l'impression de continuer à exister en utilisant des techniques de cloacking. J'inclus dans ce cas de figure les cas complexes de DNS poisoning, etc
  • Sites multiples d'enseignes. Ce cas de figure existait bien avant le web et consiste à faire croire aux utilisateurs qu'ils ont devant les yeux des sites concurrents dans une SERP, alors qu'en réalité le propriétaire est le même pour plusieurs de ces "faux concurrents".
  • Sites clones : des sites aux objectifs similaires, comme la vérification de statut social pour une entreprise : il en existe pléthore. Il y a plus de 10 ans, les annuaires web ont connu le même sort. La plupart utilisaient le même logiciel, ils n'avaient alors que très peu de valeur ajoutée les uns par rapport aux autres. La majorité de ces annuaires ont disparu ou ont leurs pages reléguées très loin dans les SERPs.
  • Sites satellites ou sites spammy : destinés à pousser un site principal, ou selon le niveau de linkwheel, un autre site tiers. Le schéma de maillage entre les sites est aujourd'hui analysé plus finement par Google.
  • Alphabet Inc. la maison mère de Google, pousse depuis plus d'un an certaines de ses fonctionnalités ADS qui sont totalement opaques pour les consultants. A l'image de PERFORMANCE MAX qui est une boîte noire. Impossible d'en connaître le fonctionnement précis. Tout comme les 240+ critères de l'algorithme de classement des résultats naturels de Google dont la majorité sont gardé secrets (pour ceux qui ont été dévoilés ou retro-engineered, il reste énormément d'inconnues). Google, comme Coca-Cola, cultive le secret. Ne plus proposer autant de pages de résultats le protégerait sans doute mieux du reverse-engineering.
  • etc.

Voici maintenant quelques raisons qui laissent à penser que les SERPs ne vont pas complètement disparaître :

  • Plus de pages de résultats = plus de choix : si je veux rester maître de mes choix, je préfère juger par moi-même. Je souhaite donc continuer à avoir une quarantaine de pages de résultats.
  • Malgré le travail récent des moteurs de recherche sur la catégorisation par intention de recherche, on ne pourra jamais être sûr avec une simple requête. Dans le doute, il sera toujours préférable de proposer plus de SERPs qui couvrent plus d'intentions.
  • Les SERPs vont être le point de départ des assistants de recherche IA. Car l'IA ne va pas pouvoir vérifier tous les critères E-E-A-T en temps réel pour choisir 3 résultats à proposer en réponse. Ou encore, l'IA ne pourra suivre en temps réel certaines actualités juridiques, comme la menace de suspension qui plane sur TikTok.

On peut penser que Google va opter pour une solution intermédiaire, en n'affichant plus autant de SERPs aux utilisateurs, mais en gardant les résultats de classement pour sa propre utilisation par l'IA. Ce compromis permettrait alors de bénéficier d'une amélioration "empreinte carbone" pour l'affichage et la mise à disposition des SERPs supplémentaire, tout en protégeant l'algorithme de classement de rétro-ingénierie.