2019-11-18 11:55 L'avènement de la désoptimisation importance-desoptimisation Annoncée depuis 2013 sur ce site dédié, la désoptimisation semble être, 6 ans après, un passage obligé pour ne pas se faire pénaliser son site par Google...

Désoptimiser son site en 2019

Il faut bien le reconnaître : à chaque fois que Google (Alphabet Inc.) annonce de nouvelles mesures ou la mise à jour de ses algorithmes de classification utilisés pour affcher les résultats dans les pages de son moteur de recherche, il en résulte une vague de retours d'expérience de la part de webmasters et de référenceurs (SEO).
Force est de constater que de plus en plus de sites web sont impactés par les mises à jour des algorithmes de Google, au point qu'il est désormais quasiment impossible de dresser un portrait-robot du site qui se fait pénaliser. Cela est vrai car soit :
--- Desoptimisation par Desindexation desoptimisation-desindexation 2019-04-08 13:58

Vous n'aurez pas manqué de remarquer que le moteur de recherche Google a perdu une grande partie de son index récemment... Voilà une autre forme, parfaitement involontaire (quoique), de désoptimisation : vos pages disparaissent purement et simplement de l'index Google, et sans aucune action de votre part ! Merci qui ? Merci Alphabet !

Dés-indexer pour mieux dés-optimiser

Parce que parfois une image vaut mieux qu'un long discours, voici encore la preuve d'un dysfonctionnement du moteur de recherche Google, qui mélange tout et ne sait plus retrouver son index.

La capture d'écran ci-dessous date du 29.05.2019.

site desoptimisation serps, mai 2019

Légende : Commande site:desoptimisation.com pour voir combien de pages de ce site sont (des)indexées par Google.

La page de résultat du moteur de recherche indique "environ 46 résultats (0,35 secondes)".

Or en voit clairement la pagination en pied de page, indiquant 1 et 2.

Pas besoin d'être prix Nobel en mathématiques pour savoir que Google affiche 10 résultats par page, et donc qu'ici les informations sont contradictoires : 46 résultats pour Desoptimisation.com pour 20 résultats au maximum...

commande site google, mai 2019

Légende : page 2 des serps Google.fr pour la commande site:desoptimisation.com

Effectivement, il n'y a même pas 10 résultats sur la 2ème page de Google. Seulement 8.

Il arrive souvent qu'il y ait une différence (majoritairement proportionnelle au nombre de pages d'un site) entre le nombre de résultats affichés en haut de première page et la réalité, lorsqu'on parcourt toute la pagination.

 

Là où la situation est cocasse, c'est en analysant les faits côté webmaster : ce blog comporte actuellement 18 billets. Et quelques pages ("contact", "on parle de nous", "charte éditoriale"..). Si on compte les résultats de type "bruit" voire "parasites" (la fameuse pagination en fonction du nombre de billets qu'on veut voir apparaître sur une page), on peut dénombrer 25 URL au total. Il n'y a pas eu de suppression de page, d'articles ou de quoi que ce soit.

Donc : d'où peuvent bien provenir les 46 résultats affichés ?

Desindexation de pages fantômes

Ainsi donc, pour ce site, Google a désindexé 21 pages qui n'ont jamais existé.

Ca pourrait prêter à rire, si ce n'était que dans les 18 résultats issus de son index, Google préfère des pages mineures ou sans importance (pagination, pages avec peu de contenu) aux billets de blog comme celui-ci.

En tout état de cause, voilà une forme de désoptimisation avec laquelle il faudra composer dorénavant...

Autres cas de désindexation de page

Je parle bien de désindexation, c'est à dire de la disparition d'une URL de l'index d'un moteur de recherche. Il faut donc que cette URL ait au préalable été indexée ! Cela exclue donc de facto les pages :

Les pages en ligne et "normales" peuvent être désindexées dans les cas suivants :

  1. Une page qui a été indexée mais qui ne comportait peu voire aucun lien externe pointant vers elle : "avec le temps va, tout s'en va" comme le chantait Leo Ferrer... La page, relativement isolée, n'est plus gardée.
  2. Une page qui a été indexée mais qui a été dénoncée (contenu jugé offensant, non respect des copyrights etc)
  3. Une page qui a été indexée, qui ne présente rien de spécial, mais dont justement le contenu ressemble trop à tout ce qu'il y a ailleurs sur le web : d'abord jugée intéressante, elle ne l'est plus...
  4. Une page qui a été indexée, mais qui ne l'est plus à cause du bug de Google !
--- Désoptimiser par le slow content slow-content

Notre technique seo précédente, la désoptimisation par abandon, était en fait le contrepied de cet article de février 2019. C'est à dire que tout site qui serait abonné à la stratégie du "contenu frais à tout prix" (au détriment de la qualité) aurait à gagner à l'appliquer. Voici maintenant les explications...

Slow content is king

Vous aussi, vous avez lu partout, sur tous les blogs SEO, qu'il fallait produire des contenus le plus régulièrement possible ? Rédiger des articles (300 mots étant le minima, 500 mots étant ok, plus de 1 000 mots étant considéré comme nice-to-have), pour tester l'appétence de GoogleBot à venir sur vos pages et se délecter de votre prose. Ou pas.

FMO (Fear of Missing Out)

Il fut un temps où faire de la veille signifiait vraiment référencer ses sources et en auditer la qualité. Avant 2012 (filtre Google Penguin sur l'algorithme de classement) mener une veille SEO avait un double avantage : se tenir au courant des techniques et méthodes bénéfiques pour améliorer la visibilité d'un site dans les pages de résultats (SERPS) de Google. Et pouvoir appliquer des "plans" directement utilisables partagés au sein de la communauté de référenceurs.

Puis ce temps céda la place à un autre, plus austère, au cours duquel mener une veille impliquait de chercher des retours d'expérience, des use-case, des stories.

Depuis quelques années, faire de la veille SEO revient principalement à trier parmi la grosse majorité d'articles et/ou de sources qui rédigent des publipostages, c'est à dire des contenus sponsorisés, des articles guest-blogging, des articles destinés à mettre en avant une certaine forme de monétisation via des liens d'affiliations... On trouve pêle-mêle beaucoup de contenus centrés sur les outils seo, les évènements, beaucoup plus rarement de vrais articles de fond, même si sur ce point la francophonie est chanceuse d'avoir des talents liés à la recherche et développement en référencement naturel (nous reviendrons sur le sujet prochainement).

Le syndrome "fresh content"

Est un beau footprint.

Publier des articles dans le but d'amener GoogleBot sur son site le plus rapidement possible est une stratégie rédactionnelle pour certains. Les amateurs d'analyse de logs seront formels : plus vous publiez souvent, plus les crawlers viennent régulièrement, et à des intervalles de plus en plus rapprochés, sur votre site.

Mais que se passe t-il si ce que vous publiez et inintéressant au possible ?

Alors il devient évident que vous ne rédigez des contenus que dans le but d'obtenir cette régularité du passage du crawler sur vos pages. Autrement dit, c'est pour la performance mécanique.

Evitez le contenu snack, préférez les articles durables

C'est une véritable écologie éditoriale qui se met en place : plutôt que privilégiez le quantitatif (le nombre de nouveaux billets de blog que vous pouvez mettre en ligne à la semaine par exemple), publiez qualitatif !

Désoptimiser un site consiste donc à ne pas lui imposer un planning éditorial serré uniquement dans le but de tenter de faire revenir le crawler le plus souvent possible.

C'est en effet une forme d'optimisation désormais bien trop connue et utilisée :

Si poster régulièrement des contenus envoie un signal favorable aux moteurs de recherche, cela ne suffit plus en 2019 à vous assurer un avantage concurrentiel en terme de visibilité dans les SERPS.

Sauf bien évidemment, si la concurrence du secteur dans lequel vous souhaitez vous positionnez est plus faible sur ce point, et à toutes choses égales par ailleurs...

Un exemple vaut mieux qu'un long discours...

Ce site est en première page de la page de résultats de Google.fr devant de très nombreux média très populaires, avec des volumes de contenus de l'ordre des centaines de milliers de pages indexées par Google et qui publient très régulièrement.

Il répond très spécifiquement à la stratégie de désoptimisation et a donc toute légitimité pour garder cette tribune. Il faut reconnaître qu'il est sur un secteur de niche du SEO, ce qui contribue énormément à ce bon positionnement.
--- La Désoptimisation par abandon 2018-09-07 09:55 desoptimisation-par-abandon

Malgré les campagnes de sensibilisation des publics comme "n'abandonnez pas votre site web" diffusées par des professionnels de l'animation de contenus en ligne il arrive que des sites web ne soient plus mis à jour pendant un laps de temps important.

Désoptimiser un site par abandon

Il en découle un phénomène bien connu des référenceurs, que l'on pourrait simplifier et résumer ainsi :

  1. Le site n'est pas mis à jour, il est abandonné
  2. Le crawler du moteur de recherche passe
  3. Le crawler relève la date de dernière modification
  4. Rien n'est modifié au niveau de l'index du moteur de recherche
  5. Le crawler repasse après un certain temps (qui est associé au site web). En fonction de l'appétence du crawler pour le site, il peut repasser le même jour, 3 jours après, 15 jours plus tard voire moins. 
  6. Toujours pas de modification de l'index, mais le robot modifie son prochain passage, qu'il remet à plus tard

Diminution du crawl budget

Le mode opératoire du spider du moteur de recherche décrit précédemment est en boucle.

C'est à dire qu'à chaque passage sur le site, on peut noter deux cas de situation :

  1. Soit le site / la page a été mis(e) à jour entre les deux visites du crawler
  2. Soit rien n'a changé

Dans le premier cas de figure, en fonction de la nature de la mise à jour, le crawler peut réajuster la date de son prochain passage sur le site.

Dans le second, il va décaler à plus tard sa prochaine visite. Et donc le site va peu à peu perdre son "budget de crawl" : le robot du moteur n'accordera plus qu'une petite visite de plus en plus irrégulièrement, et sans parcourir la totalité du site (ou bien le volume de pages qu'il avait pour habitude de parcourir auparavant).
Cette diminution du crawl budget est une désoptimisation naturelle du site.

En effet, les robots des moteurs de recherche vont venir moins souvent, et moins longtemps, sur votre site.

Pour l'exprimer autrement, on pourrait même dire qu'ils vont progressivement se désintéresser du site internet.

Sans mise à jour c'est la perte de position

Et cela va se traduire par une perte de position dans les pages de résultats des moteurs de recherche.
Selon le sujet traité par votre site, la compétition menée par les concurrents peut faire rage. Et si votre site n'est plus mis à jour, les sites de vos concurrents qui sont actualisés régulièrement vont peu à peu grignoter des places au détriment de votre propre classement.

En conclusion, un site qui stagne (pas de mise à jour ni nouveaux liens externes) est donc un site voué à perdre de sa visibilité dans les pages de résultat des moteurs de recherche (descente des positions dans les serps).

Une excellente tactique de désoptimisation !
 A très bientôt :-)

--- Link Building 2017 2017-01-31 21:33 link-building-2017

Qu'est-ce que le link building ?

C'est une vieille tactique des référenceurs d'antan qui essayaient de placer des liens partout sur le web.

Quels sont les termes associés ?

Puisque ce terme fait référence à une action volontaire de créer des liens vers son site depuis d'autres sites extérieurs. Donc on peut aussi faire référence aux termes Netlinking, linkwheel (roue de liens), linkfarm (ferme de liens), PBN (private blog network), réseaux de sites... qui font référence à autant de pratiques fortement déconseillées par les manuels de bonnes pratiques Google, et qui sont pénalisées lorsque Google les découvre. Lire les articles suivants (parmi des dizaines sur le sujet) :

Pourquoi est-ce important pour améliorer sa visibilité web ?

Le volume de liens externes pointant sur votre propre site était autrefois un bon levier de popularité pour Google qui avait alors tendance à faire remonter votre site dans ses pages de résultats.

Quand utiliser cette technique SEO Old School ?

Jamais. Ou alors faites-le très intelligemment, et à vos risques et périls.

Comment ça marche ?

Ben en fait, ça ne marche plus vraiment. Cela fait déjà 2-3 années que des sites se positionnent en 1ère page sans backlinks. Le simple fait d'avoir des liens qui pointent vers vos pages est un signal d'alerte pour Google qui va surveiller ce qui est fait de très près. Et si vous avez des liens très moyens, genre des liens d'annuaires web ou de sites qui proposent ouvertement des échanges, alors vous allez avoir du mal à obtenir de vrais bons résultats avec vos liens.

Mais le link building c'est du Growth Hacking ?

Heu non. Le terme "Growth Hacking" est relativement récent. Il a vraiment commencé à devenir visible à partir de 2013, alors que le terme "link building" a connu son apogée de 2010 à 2012. Bizarrement, son déclin a été annoncé par le premier filtre Google Penguin qui a pénalisé les sites présentant des pratiques de net linking abusives (selon les guidelines Google) notamment à cause de l'optimisation des ancres de liens.
D'ailleurs, c'est également à cette période là (entre 2010 et 2012) que le terme "linkwheel" a connu son pic de tendance (septembre 2011 précisément). Source de toutes ces tendances : Google Trends.
Note : le net linking fait partie de l'arsenal de techniques utilisées par les growth hackers.

Quand commencer à faire des liens ?

C'est simple : ne commencez pas. Ça vous évitera :

  1. d'avoir à les retirer vous-même dans 3 mois quand un Googler vous dira sur un forum que votre site sent la sur-optimisation à plein nez et que le profil de liens externes ajoute une couche puante,
  2. d'avoir à demander aux webmasters des sites de les retirer
  3. d'avoir à faire un fichier disavow auprès de Google si les webmasters ne les ont pas retirés

Mais faire des liens grâce aux interviews est-il un moyen simple d'acquérir des liens de qualité ?

Oui, et c'est bien pour ça que tout le monde le fait. C'est même une des dernières techniques qui fonctionne encore à peu près. Donc tout le monde le fait, donc ça n'intéresse plus personne d'un point de vue utilisateur / lecteur, et d'un autre côté Google n'ignore pas cette pratique d'"article invité" donc : ça ne vas pas durer. Si vous le faites pour vos clients, vous leur faites prendre un risque. Attention, là encore, si c'est fait très intelligemment, vous avez une chance de rester un peu plus longtemps sous les radars. Mais évitez les interviews avec 2,3 liens ou plus dans les paragraphes questions/réponses. En fait, évitez tout court. Vous serez plus serein(e).

Mais faire des liens grâce aux infographies est-ce une façon créative d'acquérir des liens qualitatifs ?

L'infographie est à l'interview ce que l'os à moelle est à la croquette pour chien. Relisez tout ce qui a été dit ci-dessus, et adaptez en 100 fois plus flagrant. Les infographies polluent le web car tout le monde se pense capable d'en faire une avec sa version Photoshop piratée. Dans 98% des cas, l'infographie :

  1. Ne présente aucun intérêt (contenu obsolète ou complètement inutile)
  2. Pourrait être intéressante mais les chiffres sont mal présentés, on comprend rien, on retient rien
  3. Est moche à pleurer
  4. Est une copie d'une autre infographie que vous avez déjà vu passer il y a 1 mois

Les liens via les réseaux sociaux

La notion de partage n'est plus ce qu'elle était. Ou alors ce qui est partagé ne vaut plus rien non plus. Ou alors les deux. Ou alors les réseaux que vous avez ne sont en fait que des chatbots qui ne savent pas cliquer sur vos boutons de partage Facebook, Twitter et LinkedIn.

Et c'est bien dommage.

Les liens dans les commentaires de blogs

Encore une pratique éculée. Et de moins en moins de blogs acceptent les commentaires (leurs auteurs ont tout compris au web). Sous prétexte du spam. OK. Next.

Où placer ses liens ?

DTC ?

Les erreurs à éviter quand on veut faire du link building

Eh bien, tout ce qui a été décrit ci-dessus, en fait.

Ne pas faire de link building, c'est faire de la désoptimisation ?

Si on considère que l'optimisation (SEO) concerne uniquement le On-Site (les pages de votre site), alors tout ce qui ressort du Off-Site (les liens externes) n'est pas de la desoptimisation. Mais si on parle de stratégie globale de visibilité en ligne, alors on peut dire que NE PAS FAIRE de liens vers son site depuis d'autres sites participe à une certaine forme de dés-optimisation ! C'est en tous cas une façon NATURELLE de penser l'écosystème des interwebs.
--- 2015-03-25 10:11 Désoptimiser un site pénalisé desoptimisation-site-penalise

Puisque la désoptimisation est désormais une technique connue et reconnue de tous les professionnels du référencement naturel, il existe des cas d'école qui doivent permettre de hisser un SEO au rang de maître dans cette discipline. Et le top, c'est de partir avec un handicap.

Apporter visibilité et trafic à un site pénalisé

Eh oui. Vous avez bien lu. Le défi consiste à faire ranker un site pénalisé. Et quand nous écrivons pénalisé, il ne s'agit pas d'une simple petite pénalité sur certaines ancres exactes qui ont été déclassées suite à une recherche de positionnement sur des expressions-clés. Il s'agit bien de réindexer et positionner un site entier. Pour être bien sûr qu'un site site pénalisé, il faut chercher dans l'index de Google : s'il n'est ni présent dans l'index secondaire (généralement les pages qui y figurent sont accessibles en cliquant sur le message "il est possible que certaines pages ne soient pas ... cliquez ici pour les afficher"), ni présent dans l'index primaire (la commande site: retourne zéro résultat), et qu'aucun dispositif bloquant (voulu ou non) ai été mis en place (robots.txt en disallow sur l'ensemble du site par exemple), alors on peut raisonnablement penser que le site est bel et bien pénalisé.

Une fois votre NDD trouvé (s'il ne s'agit pas d'un de vos sites, généralement ils sont facilement trouvables : il n'y a qu'à chercher sur les sites d'enchères et de domaining, ou dans les listes de NDDs expirés), attelez-vous à la tâche : faire revenir le site dans les serps, ramenez-le du royaume d'Hadès parmi les vivants !

Dans quel but ?

Depuis l'hécatombe de sites pénalisés par les différents filtres de Google dès 2011, beaucoup de référenceurs ont choisi d'abandonner purement et simplement les domaines identifiés et coulés. En effet, lever une pénalité est en quelque sorte un véritable parcours du combattant et il est parfois plus simple et rapide de repartir de zéro avec un NDD et un site vierges. Toutefois, certaines bonnes raisons peuvent pousser au challenge de ce billet, parmi lesquelles le nom de domaine à fort potentiel ou de type "marque".

Alors que le SMO, le SEA et autres techniques growth marketing s'accaparent le devant de la scène des métiers et tendances du web, le SEO s'adapte et se réinvente sans cesse. Nombreux sont les challenges qu'il doit relever, et en voici un particulièrement difficile, que nous avons nommé l'Art de la désoptimisation ultime !

---- 2015-03-17 17:13 La désoptimisation commence par la fermeture des commentaires desoptimisation-fermeture-des-commentaires La très grande majorité des blogs ou CMS comportent une fonctionnalité moyenâgeuse qui permet de commenter un article. Détournée de sa fonction initiale par de vils black-hat spammeurs du web, cette option est désormais à désactiver si l'on souhaite présenter un profil bas à Google.

Le commentaire say le mal

Google a très vite compris que les internautes qui déposaient des commentaires en réaction aux articles étaient souvent animés de mauvaises intentions.

La faute à qui ? Les logiciels de blog ayant voulu offrir la possibilité de faire des liens depuis ses commentaires se sont ainsi vite vu la cible de webmasters en recherche de visibilité online.

Beaucoup ont donc commenté des articles sans les lire simplement dans le but d'ajouter leur lien sur une autre page web. La fameuse époque des messages sans aucune signification comme "merci beaucoup pour cet article."

L plus malins ont développé des outils pour automatiser la création de ces liens en commentaires. Ces logiciels ont littéralement submergé la Toile, comme un tsunami. Tout webmaster de blog sait qu'il risque de recevoir des vagues de spam, et les plugins comme Akismet (https://wordpress.org/plugins/akismet/) sont devenus vitaux pou essayer de trier les vrais "bons" commentaires parmi les messages automatisés.

Et malheureusement cela n'est jamais allé en s'arrangeant. Car chaque jour, de nouveaux spammeurs utilisent ces outils en rêvant de propulser des sites en première page de Google grâce à cette pseudo-popularité.

Donc potentiellement, le problème du spamco (ou spam de commentaire, commentaire indésirable) ne pourra jamais être éradiqué.

Un autre système se met en place

D'autres plugins comme KeywordLuv (https://wordpress.org/plugins/keywordluv/) ou CommentLuv ont alors exploité ce phénomène d'attraction, en sens inverse. C'est à dire que puisque les spammeurs et, dans une moindre mesure, les référenceurs et autres SEO recherchent des "spots" (endroits) pour poser des liens, ces plugins ont envoyé un signal fort en laissant une empreinte (footprint) facilement identifiable, avec en plus (des autres systèmes de commentaires par exemple, qui présentent eux-aussi leur footprint) la promesse d'un lien optimisé pour le SEO, c'est à dire la possibilité de laisser un ou plusieurs mots-clés dans l'ancre du lien.

Vous allez me dire, quelle différence avec les commentaires classiques ?

Alors que le lien par défaut va afficher votre prénom ou pseudo, comme par exemple antonio vendetta ou kerbonfulator si vous souhaitez pousser un mot-clé, KeyWordLuv et autres (optimisés pour le SEO) vont afficher : antonio vendetta de kerbonfulator, rendant ainsi les possibilités d'optimisation plus fines et nombreuses, ce que les amateurs de spin (textes générés automatiquement et aléatoirement selon une matrice prédéfinie) ont grandement apprécié. Et les utilisateurs de ces spuns (textes spinnés) sont par définition de gros spammeurs, sans quoi ils ne mettraient pas en place de telles stratégies coûteuses pour déverser leurs textes avec liens - plus ou moins subtilement optimisés - pour le référencement qui du coup n'a plus rien de "naturel".

Alors un autre système se met en place : le spamco façon copinage. L'optimisation des com' pour attirer les visiteurs. Car l'internaute qui sait qu'il va pouvoir placer un lien optimisé va plutôt avoir tendance à venir sur votre blog que celui de votre voisin qui ne propose pas une telle fonctionnalité. D'où le raz de marée de "super article merci" et autres "merci je partage sur les réseaux sociaux cet excellent billet".

L'optimisation de commentaires sur les blog say le très mal

Du coup Google a commencé à prendre des mesures face à ces blogs qui font de l'optimisation de commentaires. A cause de ceux qui exploitent cette optimisation.

Et du coup les éditeurs de blogs eux-même ont commencé à prendre peur en réaction à la colère de Google. 

Certains, qui avaient passé leur liens en dofollow après avoir modifié les fichiers par défaut du CMS WordPress par exemple, se sont mis à les remettre en nofollow. Parce que le nofollow c'est moins classe, c'est une façon de dire "voici un lien, mais bon ne le suit pas et ne va pas voir le site à l'autre bout" à Google. Les éditeurs de KeyWordLuv eux-même e sont fendus d'une modification de leur plug-in et d'un message d'avertissement pour informer les utilisateurs de WP des risques...

Un grand pas vers la désoptimisation

Donc voilà. Parmi la communauté de blogueurs, webmasters, référenceurs, beaucoup ont commencé à retirer petit à petit ces plugins, à modérer de plus en plus les liens, à être plus exigeants sur ces commentaires... Le blog Axe-Net (http://blog.axe-net.fr/) a par exemple modifié sa ligne de commentaire en n'autorisant plus que des liens vers les réseaux sociaux.

C'est en désoptimisant les sites de la sorte que les blogs se portent mieux : puisqu'il n'y a plus d'intérêt à commenter pour laisser un lien, beaucoup de spammeurs ou de visiteurs "intéressés" se sont vite détournés de ce moyen d'acquisition de liens, que certains érigeaient pourtant en stratégie.

Après avoir annoncé avoir fait le ménage dans les très très nombreux commentaires laissés sur son blog (dont beaucoup de liens spammy), le consultant SEO Laurent Bourrelly (http://www.laurentbourrelly.com/blog/1810.php) a fini par aller plus loin, et a annoncé la fermeture définitive des commentaires.

En agissant de la sorte, il envoie un signal clair, aussi bien aux internautes intéressés qu'à Google : puisque son site n'accepte plus de commentaires, il n'y a plus de risque de spam (contenu inutile, de mauvaise qualité, sans rapport avec le sujet, etc) de ce côté-ci. Cette étape, qui est clairement un pas vers la désoptimisation, marque un changement crucial dans le milieu du blogging SEO.

Reste à voir quels seront les autres blogueurs à suivre une voie aussi radicale.

Et pourtant...

Vous l'aurez remarqué, sur Desoptimisation.com on est taquins. Nous n'avons pas pu nous empêcher de voir, rapidement, si Laurent Bourrelly lui-même commentait les autres blogs.

Nous n'avons pas été déçus de constater que c'était bien le cas :


Laurent Bourrelly commente

Un commentaire frais de la journée.

Un commentaire laissé par LaurentB

Un autre commentaire posté il y a 2 jours.

LB SEO rockstar com

En voici encore un qui date de 4 jours

Et pour finir un commentaire, non pas de Laurent B., mais d'un internaute (taquin lui aussi) qui s'inquiète de sa décision

A propos de Laurent Bourrelly

---- De la nécessité de désoptimiser votre site 2015-03-05 14:46 necessite-desoptimiser-site

Où comment il est question de bon sens dans notre société qui cherche à faire de nous des spécialistes en tout, notamment en SEO... Nous avions déjà répondu aux question "Quand" et "Comment" faire de la désoptimisation, voici enfin le "pourquoi" !

Pourquoi désoptimiser son site web ?

Dans la course à la visibilité sur Google, en première page des résultats de recherche du moteur (ou Serps pour Search Engine Results Pages) si possible, les acteurs de plus en plus nombreux du web se jettent littéralement sur toute technique ou méthode qui permettrait de passer devant les autres, c'est à dire de mieux se classer. Ces trucs et astuces peuvent se résumer par :

  1. Avoir un besoin
  2. Avoir une idée de projet en ligne
  3. Avoir une estimation de la faisabilité par rapport au marché, qu'on va mettre en rapport avec un objectif
  4. Lancer son site web et tout mettre en œuvre pour qu'il obtienne les meilleurs résultats

Si on devait détailler cela pourrait se faire ainsi :

J'ai un besoin : il me faut de l'argent

J'ai une idée : je vais lancer un site web sur ma passion

J'ai une estimation du secteur : mon idée n'est pas nouvelle, et c'est une passion que beaucoup d'internautes partagent, il y a déjà beaucoup de sites sur le sujet depuis plusieurs années

Je lance mon site web en espérant vendre suffisamment mon produit, qui est un ebook sur ma méthode, pour en vivre décemment (un SMIC les deux premières années).

Ce qu'il faut retenir : si l'idée est déjà présente sur le web, il va falloir fournir beaucoup d'efforts pour se faire une place dans les Serps.

Et c'est ainsi que se profile le drame...

Comment se faire une place dans les Serps ?

L'un des premiers leviers de visibilité qui est clamé haut et fort dans les forums et autres blogs d'entrepreneurs qui cherchent à populariser leur offre c'est l'optimisation pour les moteurs de recherche (SEO).

Ainsi commence le chemin de croix pour le porteur de projet, qui va devoir intégrer tous les éléments de la grande trousse du spécialiste es référencement qu'est l'expert SEO :


L'éditeur du site, convaincu du bien-fondé de ces "bonnes pratiques" qui sont publiées partout, va donc se mettre à optimiser tout ce qu'il est possible d'améliorer.

Mais le site aura beau obtenir les meilleurs notes de tous les audits SEO du monde, ce n'est pas cela qui va le placer en tête des Serps.

Beaucoup d'éditeurs de sites ne comprennent pas la phrase précédente, car pour eux, "qui peut le plus, peut le moins". Ils vont donc t'expliquer inlassablement qu'un site optimisé SEO ne présente pas de facteur bloquant pour les robots crawlers, et que "ça ne peut être que mieux".

Si le raisonnement se tient, il faut aussi remettre l'opti. dans le contexte du web : combien de sites sur le sujet sont déjà optimisés et présents dans les Serps ?

Pourquoi le contenu est roi sur le web ?

Parce qu'il suffit d'un technicien pour optimiser un site. Et qu'un SEO coûte moins cher qu'un journaliste, un rédacteur-concepteur ou un écrivain. D'autant plus qu'avec tous les sites qui abondent sur le sujet, on peut apprendre à faire son SEO soi-même sans problèmes.

Alors vous pourriez me répondre : et les blogueurs ? Et la fameuse blogueuse mode par exemple, qui écrit comme elle parle, avec son ♥ ? Elle ne coûte pas cher...

Eh bien justement son contenu n'est bien souvent pas optimisé SEO. La valeur de son blog, c'est le ton de sa personnalité et le réseau de ses ami(e)s. Google ne lui amène pas beaucoup de trafic organique mais elle s'en fiche car elle est présente sur tous les réseaux sociaux et les plateformes de blog, actus mode et j'en passe.

Lorsque la blogueuse mode (cherche à) optimise son site, cela passe par un rappel à l'ordre de Google qui vient évoquer la nécessité d'avoir des liens nofollow sur tous les articles sponsorisés...

La désoptimisation est la planche de salut du site web moyen

Aucun jugement de valeur là-dessus. D'ailleurs ce site a beau se positionner en 1ère position de Google sur la requête "désoptimisation", je le considère comme un site au contenu "de base", c'est à dire "moyen". Bien sûr, les haterz vont dire que c'est facile d'être au top des serps avec un EMD sur une niche, ce pour quoi j'expliquerais aux novices que le secteur de la desoptimisation SEO est une niche : comme il y a très peu de recherches d'internautes sur cette requête, cela n'attire pas les concurrents. Et pour aller plus loin, le fait même d'inciter les webmasters à désoptimiser leurs sites est à contre-courant de ce qu'on lit dans 99% de la sphère SEO. Donc c'est non seulement confidentiel mais également impopulaire. Est-ce inexact pour autant ? Est-ce que la majorité a toujours raison ? Bref.

Le but de cet article est de mettre le doigt sur la raison même qui pousse la plupart des infopreneurs à recourir aux services d'un SEO, ou à la faire eux-même.

Désoptimiser la médiocrité

Il faut comprendre que les techniques des référenceurs ne fonctionnent que tant qu'elles ne compromettent pas la moyenne. Le jour où tout le monde fera bien attention à ce que la balise Title de chacune de ses pages atteigne sans jamais dépasser les 65 caractères, avec un ou deux mots-clés habilement placés, Google modifiera une fois de plus son algorithme pour que critère perde en importance. Et au vu de l'importance qu'à pris le SEO ces dernières années (comme s'il s'agissait d'une méthode infaillible pour assurer le succès de son site), le jour n'est pas loin où l'optimisation web in-page et in-site sera réalisée sur plus de la majorité des sites.

Mais avant cela, les sites aux contenus pauvres qui essaient de compenser avec une technicité élevée feront les frais de nouvelles mises à jour du moteur Google. Pourquoi optimiser un site qui n'en vaut pas la peine ? C'est espérer gagner quelques secondes de plus, le temps que l'internaute, séduit par le graphisme ou la mise en page, réalise que les articles sont absolument insipides et quitte le site. Autant pour le taux de rebond !

Pour autant, il est évident qu'on ne peut pas toujours produire un contenu ultra-qualitatif, intéressant et pertinent, rarement abordé sur la Toile. Mon conseil est donc de pratiquer une désoptimisation choisie sur les articles que vous jugez moins bons, peut-être à cause d'un manque d'inspiration ou par manque de temps par exemple. Comment ?

En rédigeant un titre (trop) long, une description qui ne contienne pas de mot-clé, un balisage HTML plutôt orienté lecteur que robot... Vous allez donner un profil naturel à certaines pages de votre site, cela va donc diluer quelque peu le signal et vous faire éviter le piège de la sur-optimisation systématique.

L'autre avantage est que votre lectorat se trouvera également épargné de lire un article plutôt moyen truffé d'expressions-clés mises en gras ou avec des liens, car ce genre d'optimisation se remarque très rapidement et a plutôt tendance à faire fuir l'internaute avisé ;-)

Nous verrons prochainement un peu plus concrètement les différentes façons de réaliser cette désoptimisation. Une autre façon d'évoquer le sujet serait de dire "si tu n'as rien à dire d'intéressant ou qui est déjà dit ailleurs sur la Toile, abstiens-toi !"

Ça vous fait réfléchir ?

--- Desoptimisation technique Toujours soucieux de donner un os à ronger aux SEO, Google prodigue ses bonnes pratiques qui, depuis les notions de qualité rédactionnelle et informationnelle relative aux contenus, ne cessent de glisser vers l'aspect technique du référencement... Quelques astuces à appliquer côté serveur...

Diktat technique de Google

Par ordre d'apparition, voici les plus récentes recommandations du monopole de Mountain View concernant votre site internet :

  1. Réduction du temps de chargement des pages
  2. Migration vers le protocole https
  3. Adoption du Responsive design
--- Désoptimisation sémantique 2014-11-04 13:11 La Désoptimisation SEO ne se limite pas à défaire ce qui a été codé en dur dans les pages au moyen de balises HTML. Et alors que la communauté de référenceurs et marketeurs de tous poils ne parlent plus que de balisage sémantique, il est plus que temps de prendre les contre-mesures dès aujourd'hui.

Ça vous évitera sûrement le prochain filtre de Google...

Ne pas suroptimiser ses textes

Ah oui, car les articles sur l'art de l'optimisation textuelle pleuvent en ce moment sur la blogosphère liée au référencement. On peut lire un peu partout qu'il faut enrichir ses écrits avec du vocabulaire proche et des synonymes. La vulgarisation de formations données depuis un an ou deux ne souffre pas beaucoup la comparaison avec la finesse d'analyse d'origine. Là où on parle de cocon sémantique, certains billets de rédacteurs n'ayant manifestement pas suivi la formation mais simplement lu ici ou là quelque compte-rendu plus ou moins laudatif (souvent plus que moins, ça fait toujours espérer quelques RT et autres relais par les formateurs portés aux nues) finissent par donner dans le cliché en essayant d'expliquer qu'il faut optimiser son maillage interne comme une coquille d'escargot. Du cocon à la coquille, le glissement sémantique est lui aussi de taille...

Si on tente d'appliquer à la lettre près les bons conseils prodigués dans ces tutoriels, on en vient à recopier l'intégralité du Petit Robert dans un article de 350 mots. Le tout avec des liens génériques en masse vers d'autres pages internes du site. Le genre d'article truffé de "cliquer ici", "lire l'article", "en savoir plus" qui envoient vers des billets antérieurs. Lesquels avaient systématiquement 1 lien vers Wikipedia en plus de 2 liens vers un moneysite, le tout sans aucune relation inter-articles, ni d'ailleurs aucun point commun thématique...

Dictionnaires et duplicate content

Du coup, chaque nouvel article de ceux qui ont tout bien compris le référencement sémantique se veut être une référence. Tous les aspects doivent être couverts. Tous les mots utilisés. Un peu comme avant, en fait. Quand les mauvais référenceurs inséraient dix liens par paragraphe. Sauf que maintenant c'est plus dur, il faut ouvrir le dico ou aller chercher des synonymes en ligne sur des sites qui scrappent les bases de données - par ailleurs déjà bien pillées par tous les spammeurs industriels du monde entier. Larousse, Littré,

My syntax is rich

So what ? Les plus malins creusent un peu plus profond, dans le web invisible, et en rapportent parfois de gros mots bien spécialisés. Le genre de vocabulaire utilisé uniquement par des experts, qui n'en découvrent l'existence et le sens qu'au bout de longues années d'études.

Et du coup, fiers de leur trouvaille linguistique, ils saupoudrent leurs articles - par ailleurs aussi plats et intéressants qu'un encéphalogramme de gallinacée ayant trouvé un couteau (ce qui représente toutefois un pic d'activité) - d'un jargon professionnel qui est alors aussi incongru et décelable qu'un panda sur la banquise à côté d'un penguin. Pour sûr, ces auteurs-là n'ont pas suivi la formation SEO + moteurs des Frères Peyronnet. Parce que sinon, après avoir clamé haut et fort que "Frères Peyronnet m'a tué" ils comprendraient bien vite leur erreur, à associer et empiler au sein d'un même document des termes rares. Trop élitistes pour être plausibles dans une page de type publi-reportage ou guest-blogging, au sein d'un site dont la grille de lecture se qualifie souvent au niveau d'entrée d'enseignement secondaire.

Désoptimiser l'écrit

Donc on en revient aux bases : adapter son contenu à la cible visée. Inutile de chercher à noyer le lecteur sous une tonne de vocabulaire. Le raz-de-marée lexical peut en effet vite se transformer en ras-le-bol. Et pourtant, les blogueurs qui préconisent l'optimisation syntaxique sont ceux qui prônent par ailleurs le respect de l'utilisateur, plutôt que le robot de Google (je choisis le moteur de recherche de Mountain View parce que jusqu'à maintenant c'est le plus efficace à qualifier et thématiser des contenus d'après les mots utilisés).

En fait, les conseils sur l'enrichissement sémantique des écrits qu'on voit fleurir sur le web sont à bien des égards comparables au fantasme lié à des procédés comme le spinning. De base, le postulat du texte spinné repose sur la création automatique de rédactionnels grâce {au remplacement|à la substitution} de mots, dans la phrase mais aussi dans le paragraphe. Plus élaboré au fil des années, il est aujourd'hui érigé en méthode qui permet de générer des écrits présentant non seulement des n-grams différents, mais également des structures complètes présentant des différences syntaxiques : ordre des phonèmes, longueur de phrases, conjugaison... Il devient alors difficile pour un algorithme de déceler l'automatisation via les méthodes d'investigation les moins coûteuses, comme le calcul de distance.

Alors qu'un bon masterspin passe les filtres des classificateurs, une optimisation grossière des contenus comme je viens de vous l'expliquer renvoie un signal d'alerte flagrant. Du coup, il devient urgent (pour ceux qui suivent l'actualité du référencement) de ne pas tomber dans le piège. Laissez donc le travail de rédaction aux professionnels qui maîtrisent leur sujet plutôt que d'essayer d'étaler un vernis de connaissance qui ne trompera ni le lecteur, ni le moteur !

C'est vrai que les articles sur le maillage sémantique, le siloing, les corpus thématiques et autres analyses lexicales sont à la mode. Pour combien de temps, jusqu'à la prochaine tendance SEO ? La conclusion est assez lapidaire ! Pourtant, étaler un vernis de connaissances est bien ce que tout le monde fait aujourd'hui non ? Dixit cette petite phrase bien connue (Antanaclase elliptique) qu'on attribue à l'auteur Françoise Sagan : "La culture, c'est comme la confiture, moins on en a, plus on l'étale." xptdr quand je vois ceux qui lancent des sites de niche ! Ils mettent souvent tous les mots-clés avec variantes dans une page ils prennent Google pour un imbécile C'est vraiment très intéressant comme démarche pourtant, appliquer la sémantique. Mais c'est vrai que tous les petits moutons du SEO se jettent dessus comme la faim sur le pauvre monde et c'est un peu pitoyable de voir "tout le monde" se fendre de son petit billet de blog sur la question. En espérant quoi ? Passer pour un expert du sujet ? Accroître ses chances d'attirer un peu plus le surfeur aléatoire grâce à de la longue traîne optimisée jargon scientifique ? --- SED : Search Engine Desoptimization

En 2014 l'étau se resserre pour le netlinking fait par les référenceurs. Tous les conseils que nous vous avions donné l'an dernier sont encore plus valables et pertinents aujourd'hui.

SEO is not dead yet, but long live SED

Dans la balance de tous les composants entrant dans la recette pour le référencement, l'optimisation pour les moteurs de recherche (résumée par l'acronyme SEO mais que nous désignons plutôt comme SEA, c'est à dire accessibilité pour les moteurs) est un signal fort pour un site qui se lance. Et couplé à une mauvaise campagne de netlinking (trop rapide, trop sur-optimisée au niveau des ancres de liens, trop agressive en nombre de backlinks...), c'est un faisceau d'informations qui peuvent pénaliser le nouveau site.

Quel peut être le "bon" équilibre en référencement ?

Plutôt que de passer en revue les quelques 200 critères de l'algorithme de Google nous pensons, au sein de l'équipe de Desoptimisation.com, qu'il est préférable d'assurer l'accessibilité plutôt que de trop en faire au niveau de critères purement SEO, parfois peu efficaces mais pourtant terriblement révélateurs en terme d'ambition de positionnement.

Il s'agit donc de démanteler, disséquer et analyser ces critères trop "bling-bling", de faire en quelque sorte du reverse engineering, pour travailler à désoptimiser les facteurs trop voyants bien que faibles (c'est à dire dont le poids influe finalement peu le classement dans les pages de résultat des moteurs de recherche.)

Désoptimisation (SED) d'un site web

Pour parvenir à faire du Search Engine Desoptimization, il faut donc s'attacher à

  1. Garder tous les curseurs d'Accessibilité aux moteurs de recherche (SEA) dans le vert,
  2. Ne pas traiter les curseurs SEO "faibles"

Par exemple, dans la partie accessibilité, qui regroupe souvent les "bonnes pratiques" du référencement, il est important de s'assurer des points suivants :

Et dans la partie désoptimisation, on pourra trouver par exemple :

Contenus : ne pas compter le nombre de mots par article, ni l’occurrence des mots-clés, ni même le nombre de liens (OBL), afin d'avoir un profil pleinement naturel. Les plugins comme Yoast SEO pour Wordpress (source : http://yoast.com/wordpress/seo/) sont très efficaces et ergonomiques, mais ils laissent des footprints évidents (mot-clé répété dans l'url, la titraille, le contenu, la méta description, etc). Si vous l'utilisez, pensez à ne pas avoir tous vos billets de blog dans le "vert" !

Fonctionnalités : d'autres plugins très appréciés des référenceurs sont aussi des donneurs d'alerte importants. Par exemple, KEYWORD LUV était un signal évident que le propriétaire d'un blog souhaitait s'attirer les bonnes grâces du milieu des référenceurs et blogueurs en leur faisant cadeau de liens avec des ancres optimisées. C'est désormais controversé depuis que les auteurs eux-même préviennent les blogueurs qui ont ce plugin installé du risque de pénalité. Le message dans le tableau de bord de WP est d'ailleurs assez inquiétant et n'incite plus du tout à son utilisation. Mais avant cela, des référenceurs faisant autorité comme Sylvain d'Axe-Net bloguaient dès le mois d'Octobre 2013 sur leur choix de supprimer ce plugin : source http://blog.axe-net.fr/comment-supprimer-keywordluv-sous-wordpress/

Paramétrage : Ne plus paramétrer le flux RSS avec l'intégralité des contenus (Duplicate Content), ne pas trop s'inquiéter de la validation W3C à partir du moment où l'affichage est satisfaisant sur les configurations ciblées, etc

Bien entendu, nous ne livrons ici que les "grandes lignes" de ce travail très délicat qui consiste à passer sous le radar. Chaque point de désoptimisation gagné permet de pousser un tout petit plus le curseur netlinking.

Désoptimiseur : un nouveau métier

Là où le référencement gagne ses lettres de noblesse, c'est bien ici, lorsqu'il s'agit de faire appel à un panel de compétences très diverses. En effet, rien de tout ce qui est expliqué dans cet article ne peut être sous-traité ou automatisé. Car c'est à l'appréciation d'un professionnel du référencement que le savant dosage pourra être fait.

Il faut avoir usé ses pantalons sur les bancs des SERPS pour le comprendre, il faut avoir combattu sur des typologies variées de sites, sur des marchés concurrentiels, avec des marges de manœuvre différentes et des problématiques nombreuses. Ce n'est pas en sortant fraichement de l'école ou en achetant des logiciels que l'on peut faire de la désoptimisation. Et c'est d'autant plus normal que ce "nouveau" métier est à l'opposé de la tendance à la consommation. Plutôt que d'optimiser / tout faire pour / remplir toutes les cases possibles et imaginables des checklists qu'on trouve à l'envi sur le web, il s'agit au contraire de modérer ses ardeurs dans certains domaines, réfréner ses actions, mitiger les principes... pour mieux se laisser de la marge de manœuvre sur d'autres tableaux.

Reste à connaître lesquels, et à le faire avec le bon timing :-)

En espérant que cet article vous aura donné les bases pour appréhender la désoptimisation SEO, nous vous souhaitons de bonnes expérimentations.

Article qui rejoint celui que j'avais rédigé en août 2012 sur les nouveaux métiers du web : dé-rankeur, NSEO blasteur, maintenant Désoptimiseur... Ce sont les agences d'E-reputation qui doivent se frotter les mains, toute cette palette d'outils à leur disposition aujourd'hui : merci Google ! -- Quand dé-optimiser un site ? 2013-06-29 13:13 quand-de-optimiser-un-site

Nous avons abordé au cours des précédents billets la gamme des indices susceptibles d'envoyer des signaux aux moteurs de recherche. Signaux pouvant déclencher l'application d'un filtre sur une page évaluée suspecte, voire un domaine entier.

Nous allons maintenant nous pencher sur des études de cas qui vont permettre de déterminer s'il est recommandé de dé-optimiser son site : dans quels cas, puis dans quelle mesure.

Etude de cas

Prenons des cas de figure relativement communs, que nous allons étudier au cours des prochains billets :

  1. Domaine ancien (3 ans et plus) sur lequel un travail SEO a été réalisé
  2. Domaine récent (moins de 3 ans) également optimisé pour les moteurs
  3. Site en cours de conception et lancé très prochainement

Nous partons bien évidemment du principe que ces sites sont pénalisés ou susceptibles de l'être (puisque la visibilité internet est un critère primordial dans le cahier des charges).

D'où une introduction à la notion de désoptimisation que nous abordons aujourd'hui :

Inclure la gestion des risques liée au SEO

L'accessibilité des contenus publiés pour les moteurs de recherche doit se faire sur plusieurs niveaux. Car si la suroptimisation (SEO) risque de déclencher des filtres ou modération/pondérations, à contrario il va falloir garder l'important sans trop l'accentuer, et pour y parvenir, rendre le reste le plus transparent possible !

Comme je ne sais pas si je suis très clair dans mon explication, j'apporte un exemple pour l'illustrer :

CONTENU AVANT :

L'over-optimization est une branche du SEO qui consiste à rendre tout super-important. Un peu comme si vous aviez devant vous une page de papier au format A4, par exemple d'un cours de médecine, pour laquelle tous les mots seraient surlignés, soulignés ou mis en gras à l'aide de feutres, de marqueurs fluo et autres fournitures scolaires destinées à attirer l'attention.

CONTENU APRES :

L'over-optimization est une branche du SEO qui consiste à rendre tout super-important. Un peu comme si vous aviez devant vous une page de papier au format A4, par exemple d'un cours de médecine, pour laquelle tous les mots seraient surlignés, soulignés ou mis en gras à l'aide de feutres, de marqueurs fluo et autres fournitures scolaires destinées à attirer l'attention.

EXPLICATION :

Vous allez me dire : rien ne transparaît dans le texte "après". Et vous avez raison, il ne s'agit pas d'une erreur !
Simplement, les bases sémantiques et/ou ontologiques des moteurs sont suffisamment développées aujourd'hui pour que les robots crawlers rapportent une chaîne de caractères qui sera traitée pratiquement instantanément par le logiciel algorithmique. Tous le bruit des stopwords sera filtré pour ne retenir que les termes justement "hors stopwords" :

over-optimization, seo, cours médecine,feutres,marqueurs,fournitures scolaires

En fonction du contexte du reste de la page, l'algo. choisit de mettre dans des cases les thématiques de la page. Par exemple, en se basant sur la même phrase :
  1. Sujet principal : référencement
  2. Sujet secondaire : fournitures scolaires
  3. Sujet annexe : étude en médecine

Sous-optimisation

Bien entendu, il ne faut pas déduire des inepties de ce qui n'est pas explicite dans cet article : les stopwords sont primordiaux. C'est au moteur de recherche de les filtrer, pas au rédacteur ;-) 

De même, il fait se méfier des pages mono-thématiques : on sait depuis la nuit des temps du web que Google préfère une page qui parle de carottes et une page qui parle de choux, plutôt qu'une page qui mêle les deux. Mais ça, c'était AVANT. Aujourd'hui la catégorisation des contenus se fait à la volée, et des pages qui se cantonnent EXCLUSIVEMENT à un sujet sont passibles de sanction par Penguin, car il est pratiquement impossible de traiter un sujet en ne faisant pas appel à des concepts linguistiques connexes.

Comme dans cet article que vous lisez : il y a des références multiples, des clins d’œil, des allusions, des citations... C'est ce qui rend la lecture agréable (j'espère) et surtout humaine. Un référenceur dirait "naturelle". Sans cette dilution de concept, on se retrouve avec de la bouillie ou un manuel technique, mais en tous cas avec une chaîne de caractères qui ne semble pas naturelle du tout !

Conclusion

Nous avons parcouru ensemble l'introduction à l'art délicat de la dé-optimisation de texte. Ce que vous venez de lire va à l'encontre de presque tout ce que vous pouvez lire sur le web, et c'est bien normal, car vous avez la chance d'être sur le site d'un spécialiste du référencement (pour rappel, un spécialiste est pour moi quelqu'un qui se trompe un peu moins souvent que les autres sur son sujet de prédilection).

Vous faites donc partie de l'avant-garde des référenceurs, et vous êtes en train de vous outiller pour préparer la visibilité internet de demain !

A très bientôt pour la suite de cette série d'articles.

Je suis bien d'accord sur le fait qu'il est humain de faire le lien entre les concepts, car c'est justement ma philosophie de la vie. Ce qui nous distingue de l'animal qui voit en chaque chose ce qu'elle est sans rien d'autre, c'est notre capacité (propension) à y voir des symboles, des signes, des projections... Comme la nature du web c'est le lien hypertexte, je trouve que co-citer ou lier les thèmes annexes ou connexes entre eux est parfaitement légitime ! En partant de ce principe on en vient même à vouloir développer cette pratique : Plutôt que d'enfermer un site ou une page dans un thème comme vous dites, je crée des passerelles vers autant de ressources complémentaires que je le souhaite, à partir du moment où j'y vois une corrélation ! Nous ne sommes pas des robots, notre richesse est cette capacité à communiquer, échanger, collaborer... Vous avez remarqué ? co-mmuniquer, co-llaborer : un travail de partage, d'enrichissement et d'ouverture grâce à l'Autre :-) --- SEA : le New Deal 2013-06-27 13:50 sea-new-deal Or donc, nous voici au point de rupture, celui où le glissement est en train d'opérer. La tectonique des plaques, et la formation d'un nouveau continent du référencement...

Le PRISM du moteur de recherche

Puisque Google tente de filtrer les sites suspectés de manipuler son algorithme de classement (basé sur le PageRank : la comptabilité des liens), il devient nécessaire de regarder chaque site au travers de son prisme.

Mais comment savoir ?

Comment Google voit votre site

Bien que la réponse EXACTE à cette question relève du domaine de l'Intelligence Économique, et donc ne puisse être divulguée et donc connue, il est possible d'avoir des éléments de réponse.

Tout d'abord, si votre site utilise les outils fournis par Google :

Vous aurez accès à un certains nombre de critères pris en compte par l'algorithme du moteur :

  1. accessibilité de vos pages et de leurs contenus à ses robots crawlers (ce que j'appelle SEA),
  2. source de trafic vers votre domaine et nombre de liens pointant vers lui,
  3. analyse du contenu textuel et catégorisation thématique, etc

Ces informations sont aujourd'hui devenues la base d'une compréhension à minima du fonctionnement d'un moteur de recherche. Elles permettent de saisir l'approche globale du moteur envers votre site. Mais les indications précises sur la façon dont est perçue chacune des pages web constituant votre site ne sont pas fournies par ces outils.

Et il faut pour cela se livrer à un peu de reverse engineering, c'est à dire décortiquer l'ensemble des critères que peut analyser un logiciel. Nous avons précédemment repris une liste plus ou moins exhaustive de ces indicateurs. Penchons nous maintenant en détail sur le profil d'un document et ses points de contrôle :

Profil d'une page web

L'art délicat du Reverse Engineering consiste à "se mettre à la place de" afin de remonter à la source de la conception. Le but étant de trouver soit une faille dans la fabrication, soit une explication qui permette de trouver une clé. Dans le cas du référencement internet, il s'agit d'évaluer le plus précisément possible les indices de pondération appliqués par l'algorithme utilisé par Google sur un ensemble de critères trouvés dans une page web. Ces critères constituent son "profil".

Pour dresser ce profil, il faut considérer une page web du point de vue d'un collectionneur. Ce qui donne de la valeur à un bien se définit assez facilement par des facteurs génériques :

  1. Sa rareté intrinsèque : le bien se trouve-t-il facilement ?
  2. La rareté formelle (de son information) : admettons que le bien soit commun, son traitement, sa forme sont-ils originaux ?
  3. Son état
  4. Sa côte

J'ai choisi cet ordre qui me semble le plus adapté, du plus important au moins important. En effet, la côte dépend elle-même des critères "rareté" et "état". La côte est donc un résultat qui résume la situation puis est repris en tant qu'indicateur global.

Cependant, dans le cas qui nous intéresse, la côte est souvent reprise elle-même comme un élément constitutif de l'ensemble. Dans la course au META ("au dessus de"), les outils d'audit et d'analyse sont en effet des bases sur lesquels d'autres prennent appui. Bien souvent, ces outils se greffent directement à la source pour extraire les métriques selon leur propre schéma d'organisation et d'évaluation, au moyen des API si populaires aujourd'hui. Or beaucoup d'applications différentes se branchent sur la même source. (Lire le comparatif et l'analyse de la plupart des outils d'audit gratuits en ligne). Et même si chaque logiciel se fait sa propre lecture des données, il n'en reste pas mois qu'il est souvent préférable de vérifier/corriger l'analyse avec une source différente...

Points de contrôle

La nouveauté 2013 c'est le fait d'attribuer à chaque métrique un critère de pondération, comme on peut le voir sur le graphique ci-dessous (cliquez pour agrandir l'image) :

Légende : Spearman Correlation - Study of Google Search results

Pour en savoir plus sur cette analyse statistique, voir le portail Wikipédia : http://fr.wikipedia.org/wiki/Corr%C3%A9lation_de_Spearman et http://en.wikipedia.org/wiki/Spearman%27s_rank_correlation_coefficient

Ces critères essaient de couvrir les différents aspects du référencement : 

Les infographies fleurissent sur le web à ce sujet, comme celle publiée par SearchMetrics ci-dessous et qui reprend peu ou prou les même métriques :

On remarque une très nette évangélisation au réseau social de Google ! Annoncer la suprématie de Google+ en 2016, soit 3 ans dans l'avenir, et l'afficher en début de document comme le critère le plus important pour positionner une page, est un parti-pris qui peut "passer" grâce au format léger propre aux infographies, mais qui ne trompe pas l'internaute averti. Attention à la propagande !

On peut constater que la plupart des points annoncés dans ces documents ne sont pas directement vérifiables par les outils listés au début de cet article. Et de toutes façons, Google tend à éliminer progressivement les sources d'informations qu'il livrait jusque-là (dernièrement encore, l'opérateur de recherche tilde ~ , lire sur http://www.abondance.com/actualites/20130624-12787-la-recherche-sur-les-synonymes-ne-fonctionne-plus-sur-google.html )

SEA, la nouvelle donne

Ce qui change en ce milieu d'année 2013. Voici les critères résumés en quelques bonnes pratiques :

  1. Partages et interactions sur les réseaux sociaux
  2. Maitrise des liens qui dirigent vers votre site
  3. Webmastering : Alléger le poids des pages pour un chargement rapide et prévoir la lecture sur tous supports (smartphone, tablet, vive le Responsive Design !)
  4. Ne plus se préoccuper de l'emplacement et de la répétition des mots-clés et de leurs synonymes

Conclusion

Ce qui distingue ce site, desoptimisation.com, de la vaste majorité des sites traitant de la thématique "référencement et SEO", est son recul par rapport à l'histoire du web. Aussi, lorsqu'un sous-titre comprend "la nouvelle donne" comme ci-dessus, il faut utiliser une grille de lecture qui n'est plus largement utilisée aujourd'hui. En effet, rien de ce qui n'est annoncé n'est vraiment nouveau. Ce qui l'est, c'est la communication de masse faite par les services marketing du moteur de recherche, qui s'appuient sur des effets d'annonce et des sanctions exemplaires cherchant à instaurer un climat de peur propice à l'adoption de ces recommandations.

Recommandations qui, si elles étaient suivies en masse, permettraient à l'algorithme en place de perdurer quelques années de plus, sans laisser de place à un éventuel challenger pour adopter un modèle différent du classement par le Page Rank.

---- 2013-06-27 11:52 Changement de paradigme

La vision du SEO à papa, celui qui fonctionnait jusqu'en 2011 l'arrivée de Google Panda, est en train de subir de profonds bouleversements. Ce sont deux conceptions fondamentalement différentes du référencement qui se heurtent actuellement sur la Toile. Regardons un peu ce qui a été, ce qui est, et ce que sera le métier de référenceur internet !

SEO à papa : le paradigme précédent

La définition du référencement a lentement évoluée au cours de 20 dernières années. En effet, aux débuts du web les sites étaient peu nombreux, à tel point que les équivalents des annuaires papiers suffisaient à embrasser une vision d'ensemble sur les plus utiles, les meilleurs, les plus drôles, etc

Certaines publications mensuelles comme Net@Scope vendues en kiosque se faisaient même l’écho de ce genre d'informations.

Les premiers annuaires et guides web étaient des références puisque modérés par des internautes, comme l'annuaire DMOZ ou l'annuaire Yahoo! On les désignait par les termes "CatEdit", "Netsurfeurs", ces modérateurs veillaient sur la qualité des contenus et leur conformité avec ce qu'ils annonçaient dans le code source de leurs pages. Au moyen des balises d'entête des documents HTML, invisibles pour l'internaute : TITLE, META DESCRIPTION, META KEYWORDS... (Ce n'est pas pour rien si les keywords ne sont plus pris en compte par Google depuis des années...)

Donc, jusqu'à l'an 2000, la Toile restait relativement "sous contrôle" humain. Mais on sentait les prémisses de l'explosion à venir, celle due à la popularité d'Internet qui semblait se développer de façon exponentielle à mesure que les coûts d'accès et que les possibilités de devenir acteur du web soi-même se banalisaient.

Le web selon Google : le PageRank

Lorsque Google est apparu, la révolution était en marche : pour faire face à l'afflux de nouveaux sites créés chaque jour, il fallait automatiser le tri car les humains n'étaient plus capables d'absorber le volume.

En se basant sur un modèle de tri algorithmique dont le concept repose sur le nombre de liens, Google mettait en branle une industrie qui allait connaître ses heures de gloire pendant les 10 années à venir.

Le PageRank est une idée de génie : en parcourant la Toile, site après site, les robots des moteurs collectent et comptabilisent tous les liens. Le lien étant l'essence même du web, celui qui lui permet d'exister et de croître, la boulimie de ce système de comptage n'avait de limites que dans la capacité de Google à ingurgiter, à trier puis à régurgiter les pages au sein de son moteur. En s'équipant de fermes de serveurs et en investissant des sommes colossales dans les technologies matérielles et logicielles informatiques, Google a rapidement pris la tête de l'Univers virtuel qu'est le réseau des réseaux.

Aparté : Entre nous, il faut relativiser. Google est sans contestation possible le plus gros moteur internet, certes. Mais Google n'est pas omniscient pour autant, et des millions de pages lui passent à côté, car la machine elle-même ne peut tout indexer, répertorier, classifier... De même qu'il est possible de ne pas laisser le moteur accéder à ses contenus (c'est le principe du web "Invisible")

Aparté n°2 : Google est le meilleur système/moteur qui soit basé sur le PageRank, c'est à dire l'automatisation d'un certains nombre de tâches de tri et de filtrage volumique...

Le web s'est donc développé selon le paradigme de Google, le PR. Et tous les acteurs du web ont eu entre les mains la possibilité de tirer partie de cette vision du monde connecté : construire la popularité d'un site en créant des liens vers lui.

Nous sommes au début des années 2000, et le moteur réalise déjà qu'il ne lui faut plus communiquer les indices de popularité au travers de la petite barre verte attribuée à chaque site. L'internaute a en effet la possibilité, dans la barre d'outil de son navigateur, de constater si un site est jugé "populaire" par le moteur. Avec une échelle de notation allant de rien (avant zéro) à 10, il devenait ainsi "facile" pour un webmaster de sélectionner les sites déjà bien classés par Google, dans le but de faire des liens depuis ces même sites, sur le principe simple de la célébrité : si Barak Obama parle de vous demain, cela aura plus de poids que si la mention provient de votre voisin, cet illustre inconnu.

Ceux qui avaient compris cela sont devenus des professionnels du lien.

Ils ont bâti leur propre système sur une logique de création, distribution et rémunération sur et autour de la valeur "lien". 

Parmi ces professionnels du lien, beaucoup ont eu leur heure de gloire, exactement comme les traders en bourse : spéculer sur l'indice lien, acheter pour revendre des liens ou populariser un site générant des revenus grâce aux régies, leur a permis de vivre souvent très confortablement de ces revenus passifs.

La fin du PR

Etait donc inéluctable : au fur et à mesure, l'empire basé sur la valeur PR s'engorgeait, c'était mécanique :

  1. Un site devient populaire parce que Google détecte un grand nombre de liens pointant vers lui,
  2. des sites moins visibles le découvre et s'en servent de tremplin pour gagner en popularité, et ce faisant lui apportent du contenu,
  3. le site augmente sa propre volumétrie, et transmet sa célébrité aux petits sites qui grimpent dans les classements,
  4. ce phénomène d'interaction contribue à faire monter l'ensemble du réseau.

Même avec toute la puissance de calcul possible, arrive un seuil où le comptage n'est plus pertinent, car tout un chacun peut manipuler le système en créant autant de liens complètement artificiels qu'il en faut. Même avec la montée en puissance de la concurrence (c'est à dire des sites parlant des même sujets), approvisionner un site avec des milliers de liens crées en quelques heures n'était pas un souci vers 2010. Et plus la technologie permettait de faire baisser les coûts d'acquisition du lien sacro-saint, plus il s'en créait chaque seconde. Un cauchemar pour Google !

C'est pour cela que des filtres ont été mis en place progressivement pour tenter d'endiguer cette course aux liens.

Les plus connus étant Google Panda en 2011, puis Google Penguin en 2012.

Ces animaux au demeurant plutôt sympathiques sont devenus les bêtes noires de professionnels du lien : du jour au lendemain, ces milliers de liens pointant vers leurs sites n'ont plus eu aucune valeur. La dévaluation du lien a eu pour conséquence (effet mécanique) la déflation de leur écosystème : tout s'écroulait, à l'instar d'une château de cartes de plusieurs étages.

2013 : Le nouveau paradigme

Pour autant, le lien est-il mort ?
Bien sûr que non.

Le SEO est-il mort ?
Bien sûr que non.

Le phénomène dont je viens de vous parler a mis 15 ans à se développer jusqu'à atteindre son point de rupture mécanique. Le SEO, que nous appellerons désormais SEA (cf. billet précédent) est intrinsèquement lié au webmastering, à la création de documents pour le web.

La nouvelle donne arrive. Et je vous l'explique dans mon prochain article.
Oui le page rank est peut-être mort, mais surtout pas le Pigeon Rank et je pense qu'il a encore de très beaux jours devant lui ! Et c'est Google qui l'annonçait il y a des années, comme quoi ils se moquent vraiment des gugusses qui passent leurs journées à vendre des prestas de référencement à des clients qui se font bien pigeonner et plumer ! http://www.google.com/technology/pi... --- Un petit point sémantique 2013-06-25 14:14 Ou plutôt devrais-je dire "lexical"...

Dico de la désoptimo

Comment parler de dé-optimisation sans mentionner tous les termes utilisés par les SEO ?

L'optimisation pour les moteurs de recherche peut se faire à deux niveaux : global (le site entier) ou local (la page).

L'activité SEO, ou Search Engine Optimization, est donc censée faciliter le travail des robots (on dit aussi crawlers ou spiders) collecteurs de données. Encore faut-il pour cela connaître le fonctionnement de ces agents au service de la Matrice :

Si vous avez la réponse à chacune de ces questions, c'est bien. Vous êtes aptes à faire un travail qui va faciliter la tâche du bot.

Mais à bien y réfléchir, est-ce pour autant de l'optimisation ? Il s'agirait plutôt de rendre accessible les contenus du site/de la page à ces fameux programmes. Ne devrait-on pas dire SEA (pour Search Engine Accessibility) ? Ah non, car cet acronym désigne déjà Search Engine Advertising...

Bref : on n'optimise pas une page ou un site pour les moteurs, on le rend seulement accessible. Par exemple en renseignant l'attribut ALT des balises IMG, ou encore en décrivant dans une balise NOSCRIPT un mode alternatif; quant à la titraille c'est naturel d'organiser un texte avec titres et sous-titres non ?

Le SEO est déjà de la SUR-OPTIMISATION

Discrimination positive

Ce qu'on appelle SEO est donc déjà une pratique douteuse qui consisterait à tellement rendre un site accessible qu'il en paraîtrait suspect. Un peu comme si un cinéma avait une rampe d'accès pour fauteuil roulant recouverte d'un tapis rouge avec des guirlandes et néons partout indiquant "Bienvenue aux handicapés", "Salle optimisée pour les porteurs de handicap", "Nous prenons soin des publics handicapés", etc. au point que l'accueil pour personnes valides fasse figure de parent pauvre en comparaison. Une sorte de discrimination positive, pour employer la langue de bois des politiques.

En terme de référencement, qui dit "Optimisation" évoque donc la notion d'accessibilité. On ne peut alors que recommander des sites tels que le W3C, Opquast, Pompage, OpenWeb ou encore Alsacreations...

Ces ressources vous permettront de rendre accessibles vos sites sans trop en faire.

La dé-SEOptimisation

Consiste à retirer les éléments qui sont placés de façon un peu trop insistante dans une page ou un site : répétition de mot-clé que l'on retrouve dans le TITLE, l'URL, le titre H1, la META DESCRIPTION voire même les META KEYWORDS, et bien entendu le corps textuel du document web. On va donc supprimer les inutiles (balise meta kw) et dé-seoptimiser le reste en utilisant des synonymes et en réduisant le taux de répétition.

-- 2013-06-11 01:11 Problématique de désoptimisation pour un nouveau site

Il est beaucoup plus facile de s'adapter à Penguin avec un site lancé récemment qu'avec un domaine plus ancien. Récapitulatif des bonnes pratiques.

Vous lancez un nouveau site

Tout d'abord : bon courage !

Même si la vélocité des crawlers de Google est impressionnante (indexation d'un site en quelques minutes selon le canal de publication et son autorité), il va sans dire qu'à peine indexé, un site est aujourd'hui passé au crible de beaucoup plus de filtres qu'auparavant. Avec Penguin et Panda dans la place (intégrés à l'algorithme), il faut désormais marcher sur des œufs...

Voici UNE liste de critères très probablement considérés dans le fameux algo. de Google. Il ne s'agit pas d'un document officiel (il n'y en a pas), mais d'une somme d'informations dont la plupart ont pu être collectées et démontrées de ci de là sur la Toile depuis des années. On pourrait résumer en disant que l'intelligence collective de milliers de référenceurs et webmasters de par le monde, qui ont échangé et échangent encore des informations sur le référencement, a permit d'établir cette somme de critères.

Préambule : nous ne reprenons pas ici l'intégralité du document, que nous vous invitons à consulter sur http://backlinko.com/google-ranking-factors (en anglais) L'auteur Brian Dean a publié pour la première fois cette liste en Avril 2013.

Nous vous livrons les données telles quelles ou traduites à la volée avec quelques annotations, et reviendrons sur celles qui paraissent les plus importantes pour une désoptimisation de site en amont.

Quels critères s'appliquent pour un nouveau site ? 

Nous avons mis en gras les critères qui risquent d'avoir une importance, et en barré ceux qui sont à dés-optimiser, c'est à dire qu'il ne faut pas appliquer au pied de la lettre, voire ne pas appliquer du tout ! En souligné sont les critères qui vont dépendre de la portée et des moyens de votre site. En d'autres termes, si vous avez du temps et des compétences rédactionnelles pour couvrir des sujets intéressants au sein d'un site amené à devenir une référence, alors les points soulignés sont tout à fait envisageables.

-- 2013-06-10 22:02 Comment désoptimiser un site ? Voici 10 conseils pour passer sous les radars de Google :

Comment dés-optimiser un site ?

  1. N'utilisez que des mots génériques : inutile d'être précis.
  2. Ne citez jamais vos sources : cela pourrait signaler que vous faites partie d'un milieu de manipulateurs d'algorithmes
  3. Désabonnez-vous de toutes les listes de diffusion liées au référencement.
  4. Unfollowez immédiatement tous les professionnels, les curieux ou les étudiants en référencement. Comme cela commence à concerner près d'un twittos sur deux ou trois, si on considère que le marketing, la publicité et la communication tout court en font partie, en fait unfollowez tout le monde sauf les comptes morts, inactifs ou celui de votre maman.
  5. Fuyez les forums, les blogs et les sites liés au référencement, ou prenez une nouvelle identité qui vous permettra de participer sans compromettre votre marque.
  6. Tout comme vous avez abandonné MySpace en 2005 quand vous finissiez par recevoir plus de sollicitations et d'annonces de concerts que vos ne pouviez vous-même en envoyer, laissez tomber Facebook et ses sollicitations incessantes. Si vous ne pouvez vraiment pas vous en passer, activez au moins le mode privé.
  7. Faites des liens, beaucoup de liens, vers des sites, MAIS SURTOUT PAS LES VOTRES. Google, qui est devenu registrar "afin d'acquérir une meilleure visibilité sur l'infrastructure de l'Internet" (copiez-collez cette citation pour en découvrir la source), se rendrait immédiatement compte de votre TENTATIVE DE MANIPULATION de son algorithme et en profiterait sûrement pour faire disparaître votre site au fin fond des Serps.
  8. Désoptimisez le code : revenez au HTML 3.2 : N'utilisez que du balisage de base et SURTOUT PAS SEMANTIQUE. Remplacez toutes vos balises strong par cette bonne vieille balise B. Ce site en est un bon exemple : xHTML et CSS à papa.
  9. Oubliez tous les formats d'échanges de données modernes : c'est louche. Exit les micro-formats, le RSS (c'est plein de failles en plus), le RDF, OWL, OG: et autres Twitter cards. A la limite, juste un peu de Dublin Core.
  10. Réintroduisez la balise META en force dans vos pages. Vengez-vous de toutes ces brimades et réflexions blessantes lorsqu'un internaute tweettait l'URL de votre site plein de Meta Keywords et Revisit-After.
hello world 2013-06-10 16:51