consultant web

Qualité de page web : quels critères ?

Rédigé par Yann Faurie

Qualité de page web ou du site web entier ?

Un peu de contexte préalable : une page web se définit par elle-même. La notion de "site" en tant qu'ensemble cohérent et organisé n'existe que pour nous les humains.

Un site n'est qu'un regroupement de pages sous un même domaine.

Chaque page peut être, si les critères SEO (ici la crawlabilité et l'indexation) sont respectés, accédée indépendamment d'une autre. C'est à dire sans passer par la page d'accueil. C'est bien ce que proposent les moteurs de recherche non ? Les SERPS (pages de résultats de recherche) ne sont que des listes de dix résultats, dits résultats organiques ou encore résultats naturels, ce qui est un comble puisqu'ils sont classés et proposés par des algorithmes. Ces résultats, vous le constatez à chaque recherche sur le web, sont proposés dans un ordre pas toujours facile à comprendre.

Si je cherche "Omnireso" sur Bing, j'ai un ordre de pages affiché dans la SERP qui ne correspond pas complètement au rubriquage, c'est à dire à l'arborescence, des pages. C'est le moteur qui décide d'afficher les résumés de page et leurs liens dans cet ordre.

On peut donc avoir une page "profonde", c'est à dire enfouie à un quatrième ou cinquième niveau d'arborescence de répertoire, qui ressorte sur la première page. Si j'utilise la commande site:expert-comptable-tpe.fr (ce genre de commande est appelé Google Dork en OSINT) sur Google, voici le classement des premiers résultats :

  1. Page d'accueil
  2. Page Actus
  3. Page Villes
  4. Page webinaire (un seul article)
  5. Page CGV

Ce site a plus de 2 070 pages indexées par Google. Et bien entendu, les pages les plus importantes pour l'activité sont celles qui présentent l'offre commerciale. Or, que la page "villes" arrivent en 3ème position alors qu'elle n'est pas mise en avant sur la page d'accueil ou dans les menus de navigation pose question. les moteurs de recherche ont donc une vue différente de notre conception d'unité et de cohérence. CQFD.

Surfeur aléatoire devient surfeur raisonnable

Le modèle probabilistique utilisé par Page et Brin (fondateurs de Google) dans l'algorithme du PageRank de 1998 stipule qu'un comportement de navigation est adopté plus ou moins aléatoirement en fonction de l'ensemble des liens présents sur une page. Le surfeur aléatoire en choisit un, au hasard, et arrive sur une autre page, et reproduit l'expérience et ainsi de suite. La subtilité est que le surfeur aléatoire peut être, tout comme vous et moi, ennuyé au bout de quelques bonds entre les pages d'un même site, et décide de partir sur un site qui n'est absolument pas lié depuis la page sur laquelle il saute dans l'hyper espace en abandonnant le domaine. Dans la vie, cela arrive tout le temps : on surfe en mode un peu distrait, et puis on se souvient qu'on doit remplir sa déclaration en ligne ou vite commander un cadeau.

Une amélioration du surfeur aléatoire est arrivée en 2012, avec l'algorithme du surfeur raisonnable. Il s'agit alors de différencier les liens présents sur une page, dans le but de leur accorder une importance plus ou moins grande selon des critères seo comme l'emplacement du lien dans la page. Un lien vers une page importante doit plutôt être fait en haut de page (tout du moins, au dessus de la ligne de flottaison du support web), dans le corps de la page plutôt qu'en barre latérale ou pire, en pied de page. Le surfeur raisonnable est plus circonspect. Il comprend que tous les liens ne se valent pas. Que certains ne sont là que pour guider son parcours dans le but de ne pas oublier de page, mais sans toutefois répondre à une vraie intention de recherche de l'internaute.

Cette évolution date de plus de dix ans. Depuis, d'autres améliorations ont sans doute été apportées au modèle du surfeur raisonnable...

Pertinence, clarté et fraîcheur de l'information

En 2023, à l'aube de la recherche internet assistée par Intelligence Artificielle, les bases de données gigantesques et les ressources utilisées par les moteurs de recherche vont être utilisées à d'autres fins. Le recueil des données sur le web, leur classement et leur stockage vont probablement être progressivement reléguées en second plan. L'objectif premier va être de se concentrer sur les ressources les plus éprouvées, les plus qualitatives. Au règne de la quantité va succéder le règne de la qualité. Bye Bye les Serps, avec leurs pages de 10 résultats.

Il est effarant de réaliser que pendant toutes ces années du règne de Google, des requêtes comme "création web" généraient des entêtes de Serps comme "Page 34 sur environ 448 000 000 résultats (1,16 secondes)".

Alors que personne ne va au delà de la 4ème page de résultat. Et que l'énorme majorité des outils seo ne considèrent que les positions de mots-clés en top 100 et pas au-delà.

Pourquoi avoir travaillé et gardé toute la donnée superflue ? Tout ça n'est pas très Green IT !

La promesse de Google Bard ou du projet Google Magi tient dans la concision de l'information rendue aux utilisateurs : 3 ou 4 résultats, qui pourront selon le souhait de l'internaute être enrichis avec l'assistant Intelligence Artificielle.

On change donc de paradigme, il va falloir se positionner dans le top 10 (la première page) pour avoir une petite chance que la page soit sélectionnée. Bien sûr, cela ne concernera pas tous les types d'intentions de recherche. Ou les recherches localisées.

Reprenons les critères principaux d'évaluation de qualité d'une page aujourd'hui :

Pertinence

Un must-have, impossible de faire autrement. L'information sur la page doit être intéressante, et servir un objectif. Elle doit être vérifiée et sourcée si elle concerne des faits, elle doit être approuvée par des pairs.

Ce point va aller à l'encontre de beaucoup de webmasters ou d'éditeurs de site qui répugnaient à citer leurs sources et encore plus à faire des liens. Un autre changement de paradigme à venir...

Parmi les critères de pertinence d'une page web, on peut aussi évoquer l'absence d'erreurs. Ne pas se tromper dans les faits, les dates, ni l'orthographe et la grammaire ! Les fautes de langage sont un signal négatif, soignez votre rédaction !

Pour résumer ce critère : assurez-vous de la qualité rédactionnelle et de la rigueur méthodologique dans l'exposé de vos propos !

Clarté

La délivrabilité du message doit être parfaite (pas comme sur cette page). Présentation responsive, lisible, agréable, accessible à tous publics. En fonction de l'intention de recherche, les supports ou média les plus adaptés seront proposés. La réponse à l'intention de recherche sera le contenu principal, jamais noyé dans une masse d'infos annexes, et encore moins de publicités ou méthodes intrusives (pop-ins abonnement newsletter, notifications, etc). Techniquement, un temps de chargement de la page le plus réduit possible sera toujours bénéfique pour l'utilisateur.

La clarté de l'information d'une page web passe aussi par l'identification immédiate de son auteur, de la struture de l'entité publiant le site (entreprise, personne, association, etc).

La clarté réside enfin dans l'organisation des contenus (arborescence, présentation des sujets principaux dans le menu principal, titraille des grands thèmes de la page...

Fraîcheur de l'information

L'automatisation dûe à l'IA bat son plein. Des Petrabytes de data innondent déjà les réseaux avec des contenus remaniés depuis les jeux de données utilisés pour entraîner les algorithmes. Ces contenus sont principalement recyclés et n'apportent rien en terme de contexte actuel, puisqu'ils sont ancrés dans le passé. L'horodatage est un des moyens de faire le tri entre les données lessivées depuis des années et des informations actualisées. En cela, les moteurs vont privilégier les publications récentes.

Pages Evergreen

On se dirige donc vers un web composé de moins de pages datées, et plus de pages actualisées régulièrement. Les contenus evergreen resteront utiles mais seront probablement traités différemment.

J'aurais pu vous parler des critères E-E-A-T des guidelines pour les Google Quality Raters, de la réassurance des mentions légales, pages CGV et autres "à propos", de l'author rank, des certifications, du crédit apporté par certains liens et réseaux sociaux, de la qualité web tout court... mais tout ça, vous pouvez déjà le lire partout sur le web. J'ai préféré avec cet article vous donner une vision différente des critères d'évaluation qualitative pour une page web. A ce titre, je suis certifié Opquast pour la qualité web, j'ai été évaluateur qualité Google (Google Quality rater), je suis certifié IX-labs...