Référencer un site web
Le référencement, une affaire de méthode, de flair et de créativité !
En matière de soumission auprès des moteurs de recherche, des annuaires, blogs et autres forums, il faut savoir faire preuve de timing. Inutile de courir après une soumission de masse sur des centaines, voire des milliers de sites, s'il n'y a rien de valeur à répertorier pour les robots. C'est encore plus vrai pour les humains.
Il faut donc travailler sur les contenus à optimiser pour le référencement (on appelle cela le SEO, Search Engine Optimization) dès la création des pages, de façon à proposer un contenant (la structure du site, le code des pages) de qualité.
Bien évidemment, il faut avoir le même niveau d'exigence vis à vis du contenu : proposer des textes de qualité, intéressants et optimisés pour le media : une présentation aérée par un interlignage important, au sein de colonnes dont la largeur ne prend pas tout l'écran... La créativité, dans la rédaction, dans le style, mais aussi dans l'oeil du graphiste pour l'ergonomie et la présentation...
Les bonnes adresses du référencement
Une fois le contenu validé au sein d'un contenant optimisé, il est temps de signaler la création du nouveau site !
L'annonce peut se faire de plusieurs façons, et les annuaires restent un vecteur privilégié pour remplir cette mission. Le tout est de bien les choisir, selon des critères drastiques. Inutile de perdre du temps à essayer de faire figurer votre site parmi des centaines de liens comme certains annuaires le proposent : le résultat risquerait même de vous être défavorable !
Le choix de sites de qualité est donc important, et le timing joue un rôle primordial : il faut faire connaître son site progressivement. En plus de méthode pour bien organiser et gérer ses campagnes de référencement, il faut donc avoir du flair pour bien chercher et repérer les sites qui seront porteurs de résultats dans le positionnement de votre site.
De la rigueur et de la méthode
Soumettre son site tous azimuts sans garantie de résultats est une stratégie à court terme.
Il est préférable d'analyser régulièrement les résultats obtenus à l'aide d'outils permettant de visualiser les effets des actions de référencement entreprises. Cela permet de montrer clairement au propriétaire du site la progression de différents critères (nombre de visiteurs uniques, taux de rebond, durée moyenne passée sur le site...), de pouvoir en déduire des leviers d'améliorations à planifier, et de tendre vers une recherche qualitative sur le moyen-long terme en fonction des objectifs qui auront été fixés.
En savoir plus sur le référencement :
Le référencement Google depuis le filtre Panda : Cet article que j'ai rédigé et publié le mardi 27 mars 2012, 13:43 sur un de mes sites à l'adresse https://blog.promoteur-internet.com/post/2012/03/27/Google-Panda-3.4 est toujours disponible sur archive.org si vous souhaitez vérifier.
La relecture de cet article aujourd'hui le 02.06.2023 passe ma propre modération, car il n'y a rien qui figure ci-dessous qui soit faux en 2023. Peut-être que la partie suivante du passage en citation "L'impact devrait donc être très faible sur les sites web..." est la supposition la moins véridique aujourd'hui, car on sait que nombre de pages à faible contenu ont été sorties de l'index de Google. Le nombre de mots dans une page est depuis plusieurs années une métrique utilisée pour l'évaluer, c'est même un filtre pour le logiciel de crawl Screaming Frog qui permet de trier les "low content pages" ou pages à faibles contenus. Le reste de l'article propose des conseils toujours valables 11 ans après sa parution.
Pan dans la Google Dance !
Les mises à jour du filtre Panda de l'algorithme du moteur de recherche Google
n'en finissent plus de perturber les classements des pages de résultats. Chaque
semaine les référenceurs et webmasters échangent des tweets au sujet de
mouvements importants dans les classements, et cette dernière semaine du mois
de Mars ne fait pas exception avec beaucoup de fluctuations, qu'elles soient du
à des pertes de positions ou a des gains de places.
Avec la mise à jour de Panda 3.4 il semblerait que l'étau se resserre autour des sites destinés à transmettre du
linkjuice, comme les annuaires, les sites de communiqués de presse et autres
relais d'information. En date à ce sujet :
Le calendrier mis à jour des différentes versions du filtre Google Panda devient donc le suivant :
- Panda 1.0 : 24 février 2011
- Panda 2.0 : 11 avril 2011
- Panda 2.1 : 10 mai 2011
- Panda 2.2 : 16 juin 2011
- Panda 2.3 : 23 juillet 2011
- Panda 2.4 : 12 août 2011
- Panda 2.5 : 28 septembre 2011
- Panda 3.0 : 19 octobre 2011
- Panda 3.1 : 18 novembre 2011
- Panda 3.2 : 18 janvier 2012
- Panda 3.3 : février 2012
- Panda 3.4 : 23 mars 2012
Reste qu'il paraît difficile pour un bot de faire le tri entre un site qui
publie de vrais billets sur de vrais produits ou services, c'est à dire des
articles rédigés par des humains pour des humains, et un site qui ne ferait que
mettre en ligne des contenus poussés par des automates et comportant
principalement des phrases sans réel sens.
Sur quelle base pourrait se faire le tri ? Essayons d'y voir plus clair :
Paramètres IN-SITE :
La forme :
- URL : nom de domaine propre ou sous-domaine ? Age du NDD
- Technologie utilisée par le site : CMS, blog, forum, site statique...
- Maillage interne
Le fond :
- Lisibilité et accessibilité
- Qualité des contenus
- Fréquence des publications
- Optimisation voire sur-optimisation des textes (SEO)
- Le site est-il déjà bien référencé ?
- Est-il populaire ? Visible sur les réseaux sociaux ?
- Quels sont les liens et les types de liens qui pointent vers lui ?
Tout ce qui est automatisable peut-être considéré comme "critère suspect". Et c'est là qu'il convient de connaître les possibilités d'automatisation de certaines tâches.
Voici quelques conseils pour ne pas faire tomber vos sites de Communiqués de Presse dans ce sombre naufrage :
- Ne pas se trouver lié à un réseau de sites similaires (linkwheel et link shemes)
- Obtenir des visites par le biais des réseaux sociaux, et des interactions (commentaires, notes, like, digg, re-tweets...)
- Publier des articles qui ne contiennent pas que des liens vers le même site
- Varier les ancres des liens
- Publier des textes suffisamment bien composés
- Publier à des heures différentes et à des fréquences irrégulières
- Publier en tenant compte de l'environnement et de l'actualité
- Varier les mises en forme des textes, leur composition, leur formatage
Pour résumer, je dirais que l'idée directrice est d'avoir une stratégie de contenu, et de considérer le site à part entière, et non plus comme un simple outil passeur de jus. Donc, considérez chacun de vos sites comme LE money site !
C'est assez différent de l'article de Carson Ward qui conseille plutôt d'abandonner purement simplement ce genre de site sans valeur ajoutée pour l'internaute, cf. http://www.seomoz.org/blog/unnatural-link-warnings-blog-networks-advice
L'avenir dira si cette politique d'amélioration des sites de communiqués de presse porte ses fruits, afin de ne pas subir les pénalités de Google...
La meilleure stratégie de netlinking : vers un référencement créatif ! Publié sur http://omnireso.fr/post/2012/05/19/strategie-netlinking
Vers un référencement créatif
La récent doublé Google avec Panda et Penguin a mis à mal un grand nombre de pratiques de référencement qui jusque là, fonctionnaient plutôt bien.
Je ne vais pas revenir dans ces colonnes sur certains de ces usages, de nombreux billets (à l'image de http://referencement-qualitatif.blogspot.fr/2012/04/referencement-monkey-business.html) ont été rédigés sur le thème du Black Hat, pour ne citer que l'aspect le plus polémique de l'activité du référenceur.
Or depuis le mois de Mars 2012, les écrits contre Panda ont connu un essor croissant jusqu'à rejoindre les complaintes du flot des victimes de Penguin, pour ne plus former qu'un seul courant contestataire.
J'ai bien, comme la plupart des référenceurs, ma petite idée sur les causes de ces mouvements dans les classements des résultats du moteur de recherche Google. Comme tout SEO qui se respecte, j'ai conduit mes propres tests et livré quelques idées ça et là. J'ai également beaucoup lu sur ces fluctuations de SERPS, sur les blogs anglophones et francophones. J'ai passé un temps important à me documenter sur ce phénomène, qui touche le cœur de mon activité professionnelle. Car la compréhension de ce qui se passe actuellement sur internet, qui en soi est une véritable révolution (lire cet article sur l'hégémonie google publié sur http://buzz.marketing.free.fr/spip.php?article45 expliquant très bien le tournant que Google est en train de prendre, et incidemment la tournure que la firme de Mountain View est en train de donner au web grand public), nécessite une observation pointue sur de nombreux sujets. Nous sommes en train de vivre un grand moment, mais peu d'usagers d'internet semblent en prendre conscience.
Réduire Google Panda et Penguin a un filtre qui pénalise les prestataires web ayant abusé de certaines techniques avancées de référencement est en effet très réducteur.
Il est intéressant d'observer les réactions de la communauté des professionnels de la promotion de sites. Cherchant les causes possibles de disqualification, les compétiteurs avancent des séries de critères à prendre en compte pour éviter le déclassement. A des niveaux plus ou moins précis, plus ou moins bien argumentés, qu'importe : parmi la somme des plus de 200 critères utilisés par l’algorithme de tri de Google, il y a forcément quelque part un peut de tout ce que l'on peut lire sur les blogs d'experts SEO aussi bien que d'amateurs éclairés.
Dans leur quête parfois existentielle pour éviter les pénalités de Google, les gourous de l'optimisation se concentrent principalement sur le fondement même de la Toile, ce qui fait sa force : le lien. Car Google ne considère désormais plus le lien de la même façon qu'avant, et ne lui accorde plus le même traitement. Et donc, les pros du référencement ont les yeux rivés sur leurs indicateurs de liens, ils en épluchent des tableaux entiers de données, cumulant les outils et les méthodes d'analyse, croisant les informations, recoupant les sources, complétant les tableurs de chiffres et de statistiques selon des grilles de critères relatifs aux équations mathématiques de l'algorithme du moteur.
Logiciels d'analyse et outils de comparaison
L'approche souffre d'un mal inaliénable : en effet l'analyse de tous ces métriques ne peut se faire qu'à posteriori, c'est à dire que vous avez toujours un train de retard. De même, il ne faut pas négliger la possibilité pour vos concurrents de brouiller leurs traces, ou encore de n'avoir qu'une vision partielle de l'existant. Et puis, ces outils ont leurs propres limites...
Le réflexe de se tourner vers l'outil plutôt que vers la réflexion ? La confiance accordée à ces logiciels est disproportionnée par rapport à notre propre estime de nos capacités. Tout comme la démarche d'exécuter, comparer avec ces programmes, analyser des tas de critères dont nous ne savons pas vraiment ce qu'en fait Google...
Nouvelle ère pour le Creative SEO !
Une chose est certaine : si ces techniques analytiques font partie de l'éventail d'outils utilisés dans l'activité de référencement, les référenceurs les plus créatifs permettront à votre site d'acquérir une visibilité durable, capable de franchir sans encombre les filtres que Google pourra mettre en place sur la route menant vers les premières pages !