Sélectionnez une lettre de l'alphabet

Cloaking

Mise à jour : jeudi 18 octobre 2012

C’est le verbe anglais to cloak qui signifie masquer-déguiser qui est à l’origine d’un mot courant dans le langage du web : le cloaking, terme proposé par Laurent http://www.eclairermalanterne.com. Selon le site Webrankinfo, le cloaking est une technique qui consiste à configurer un site web pour que le contenu d’une page diffère selon le type d’utilisateur qui la consulte. Le cloaking peut être utilisé pour de bonnes ou de mauvaises raisons. En d’autres termes il peut être du côté des forces du bien ou du mal !

Rankspirit indique les "raisons honnêtes" :

Présenter aux visiteurs une page web écrite dans leur langue natale, Adapter la présentation de la page au navigateur utilisé (Explorer ou Mozilla, par exemple), Afficher des publicités ciblées, Protéger les mots-clés d’une page vis-à-vis de ses concurrents, Interdire l’accès à une page aux robots collecteurs d’emails, Les robots ne peuvent pas lire certains formats , ex les sites Flash, Javascript…

L’idée est donc de modifier les pages du site pour que les robots puissent les comprendre et les prendre en compte.

Mais malheureusement bien souvent le cloaking est utilisé pour des raisons moins honnêtes. Par exemple pour booster le trafic d’un site pornographique : le visiteur recherche un site d’automobile, il fait donc une requête avec le mot clef "automobile", puis clique sur l’un des sites que Google a indexés sur cette thématique. Mais quand la page d’accueil du site s’affiche, il découvrira des images peu recommandables pour les enfants.

En fait, le cloaking fait partie des techniques dites "black hat" , donc des pratiques répréhensibles pour optimiser le classement d’un site dans les moteurs de recherche.

Concrètement le contenu du site varie selon que l’utilisateur qui le consulte est un simple visiteur comme vous et moi ou un moteur de recherche.

D’une manière générale, quand vous faites une recherche sur le web et que vous voulez consulter un site, sans le savoir vous communiquez à ce site un certain nombre d’informations sur vous notamment : le type de navigateur que vous utilisez Firefox par exemple ainsi que votre adresse IP (qui correspond à votre ordinateur).

Un site peut donc facilement repérer les robots qui visitent ces pages ; il lui suffit de connaître l’adresse IP des moteurs de recherche. Il peut alors configurer son site pour qu’il affiche la page adaptée au moteur de recherche. C’est à dire celle qui lui permettra d’obtenir un meilleur page ranking. Dans le langage webmaster, cette personnalisation des pages pour les robots porte le joli nom de "bouillie pour robots" !

Le page ranking est au web ce que l’argent est à la vie réelle. Une motivation qui explique nombre de nos comportements. Effectivement le page ranking, c’est le rang de classement qu’ attribue un moteur de recherche à un site-blog. Plus la note est élevée et mieux votre site sera placé dans les résultats que présente ce moteur de recherche. Ex si vous avez un site de ventes de montres classé 6, quand un internaute fera une recherche sur le mots clefs : achat de montres" sur Google, votre site figurera dans les premiers qui apparaitront à l’écran, en haut de la page. Si votre ranking est de 1, il est possible que votre site n’apparaisse même pas dans la première page de résultat qu’affiche Google.

Quand on saisit mieux l’enjeu que représente le page ranking, on comprend l’énergie déployée pour trouver des techniques permettant d’optimiser la note. Certaines étant tout à fait acceptables, d’autres moins. C’est le cas du cloaking, qui est considéré par Google comme une pratique répréhensible, c’est à dire que ceux qui l’adoptent prennent le risque d’être blacklistés de Google, leur site est déclassé et n’apparait plus dans les résultats.

Pour lutter contre le cloaking, Google propose un service aux webmasters et autres geeks pour "dénoncer" les pratiques coupables de leur concurrent (un spam report). C’est en quel sorte un appel à la délation. Autre moyen plus direct, Google a mis en place des robots qui se font passer pour des humains, évidemment si les pages affichés par un site à ces robots différent des pages habituellement présentées aux robots traditionnels de Google, le crime est avéré.

Compte tenu du risque, certains se gardent de claoker sur des sites "vitrines" ou des sites de E commerce, pas question de prendre le risque que ces sites soient blacklistés. Mais par contre, ils cloakent sur des sites uniquement chargés de doper le ranking de leurs autres sites. Je m’explique : vous créez un site et pour le faire vivre, vous reprenez des billets publiés par d’autres (en les citant ) ou vous fabriquez un texte qui n’a pas de sens, mais vous glissez ca et là des liens sur les sites dont vous voulez booster le ranking, car vous savez que les moteurs de recherche attribuent de meilleurs notes aux sites qui sont fréquemment cités par d’autres . Vous tentez le coup, si Google vous repère, ce site "bidon" sera banni, peu importe, vous en créérez un autre. C’est pourquoi le claoking aussi immoral et répréhensible soit il, a encore quelques beaux jours devant lui.

Écrire un commentaire