https://wordpress.org/

Premier épisode de la série : « Battre le Googlebot : Gare aux dérives de la course au référencement ! »

Publié le 13/05/2019
Partager sur :

« Black Hat » ou « White Hat » ?

Dans la symbolique des films de Western des années 20, le héros porte à coup sûr un chapeau blanc (« White Hat ») alors que son alter ego maléfique, le « méchant », arbore à n’y pas manquer un couvre-chef noir (« Black Hat »). Loin d’être défraîchie, cette symbolique sert aujourd’hui aux experts du Web pour théâtraliser l’ambivalence entre les techniques de marketing Web qui respectent parfaitement  les Guidelines officielles et les autres plus… « Hors la loi ». Et la loi, sur le net, s’appelle Google.

Le succès d’un moteur de recherche repose principalement sur sa capacité à remplir sa sacro-sainte mission : apporter la meilleure réponse possible à une requête (soit du contenu récent, responsive, sécurisé et surtout… cohérent avec la question posée).

Mais Google doit-il donc étudier TOUS les articles du Web ? En quelque sorte. Et, pour lire chaque mot, de chaque ligne, de chaque paragraphe d’une page Web, et ainsi ne laisser aucune réponse au hasard, Google utilise un robot (un crawler), une sorte d’adjoint du shérif qui « scanne » les pages du Web à une vitesse inimaginable : Googlebot.

Ce crawler est d’ailleurs la cible des experts SEO, les experts en référencement naturel sur lesquels les marques comptent pour apparaitre dans les résultats de recherche de leur cible. Les experts aux tendances « Black Hat » cherchent ainsi à abuser le robot dans le but de mettre en avant leurs pages dans la liste des résultats du moteur de recherche. Comment ces experts de la mystification procèdent-ils ? Ils utilisent les pouvoirs du « cloacking ».

Qu’est-ce que le « cloaking » ?

En anglais « a cloak » est une cape, ou un long manteau. Mais c’est en tant que verbe qu’il devient intéressant pour les experts SEO, puisqu’il signifie : « dissimuler »… Mais dissimuler quoi ? Et à qui ?

Pour se figurer ce qu’est le « cloaking » en SEO, représentons-nous un individu (une page Web) qu’un représentant de la loi (Googlebot) devrait contrôler afin de juger de sa « fréquentabilité » (la qualité du contenu par rapport à la requête) et ainsi le recommander ou non à ses utilisateurs.

L’individu va être jugé sur son apparence (son accoutrement en quelque sorte) et référencé en conséquence. C’est là que notre « cape » entre en jeu en permettant à notre individu de ne pas être jugé sur la « qualité » de ses habits mais sur celle de la cape qu’il va présenter.

Car en SEO, on « cloak » un contenu seulement pour mieux en présenter un autre : des codes sources spécifiques par exemple, dont l’optimisation effrénée rendrait l’expérience de l’internaute indigeste (page illisible, saturée…) mais qui serait à coup sûr apprécié par Google. C’est cette duplicité qui est traquée et punie par Google qui classe même le cloaking comme « high risk behavior » en termes de pratiques SEO. Mais les choses vont plus loin.

Car après tout, adapter un contenu différent selon qui vient le visiter est une pratique courante sinon de bon sens pour les entreprises. Techniquement, il suffit de détecter le user-agent (la « signature » du visiteur arrivant sur un serveur) ou même l’adresse IP du visiteur et l’on est capable de savoir qui va être exposé à notre contenu.

L’intention derrière peut même être louable en termes d’expérience utilisateur, si chère à Google : on préfèrera ainsi afficher une version « light » (et donc différente) d’un site Web lorsque l’on repère que le visiteur recherche depuis un mobile. On peut aussi tout simplement changer la langue selon celle du navigateur du visiteur… Tout cela sans voir la stratégie SEO de son entreprise vouée aux gémonies. Pourtant, la technique a tout de même sérieusement l’air de s’apparenter à du cloaking, n’est-ce pas ? Pas exactement.

La limite : le ciblage du Googlebot

Ce que Google punit officiellement, c’est le fait que vous mettiez en place des outils qui visent son crawler en particulier. Directement ou indirectement. Car si le ciblage selon l’adresse IP ou le user-agent de Googlebot en particulier affiche sans équivoque l’intention de dissimuler la réalité au crawler, les manières détournées permettant de comprendre que le visiteur est un crawler et ainsi de lui afficher un autre contenu que ce qui est normalement présenté aux autres utilisateurs sont aussi proscrites. Exit donc, les techniques consistant à identifier Googlebot par son comportement spécifique face à des scripts Java, ou encore devant son absence de réponse au Cookies.

Bien que le ciblage de l’IP ou du user-agent soit une technique autorisée par les Guidelines Google et permettent aux entreprises de participer à la création d’une bonne expérience utilisateur, s’en servir pour identifier un crawler parmi la foule de visiteurs d’un site est condamné par la Spam Team de Google. Les risques pour la stratégie de référencement – et à terme la stratégie marketing globale – des entreprises sont très élevés : déréférencement, pénalisation temporaire ou encore exclusion des résultats de requêtes cruciaux pour le Web marketing d’une entreprise. Il est donc important de comprendre la marge de manœuvre que laisse les règles fixées par le moteur de recherche et quels sont les risques encourus (dans le pire des cas : la sortie pure et simple de l’index Google.)

Le prochain épisode de notre série « Battre le Googlebot : Gare aux dérives de la course au référencement » sera consacrée à la clef de voûte des stratégies de référencement du Web marketing : les mots clefs. Plus particulièrement, nous nous intéresserons aux mystérieux « key word stuffing » ainsi qu’à d’autres techniques SEO à comprendre impérativement car, s’il est vrai qu’elles permettent d’optimiser effectivement le référencement des marques, elles sont loin d’être sans risques pour leur stratégie marketing numérique.

Dans la course au référencement, HeadMind Partners Business Consulting possède l’expertise permettant la mise en place et l’optimisation de votre stratégie de référencement, tout en préservant l’intégrité de votre stratégie marketing globale grâce à nos connaissances techniques en matière de référencement naturel comme payant. En somme : des résultats optimaux en toute sérénité !

Article écrit par Yannis JACQUEMIN, Consultant, membre de la BCOM Inbound Marketing

Veuillez saisir votre adresse email pour vous abonner. Envoyer