Cloaking : qu'est-ce que c'est et pourquoi cette technique est-elle pénalisée

Il existe de nombreuses techniques de positionnement dans les moteurs de recherche, mais nous pouvons distinguer entre les bonnes ou prudentes incluses dans le « White Hat SEO », et les pratiques dangereuses ou mauvaises connues sous le nom de « Black Hat SEO ». Tout dépend de la transparence et de l'éthique avec lesquelles nous, en tant que professionnels SEO, traitons le moteur de recherche sur notre site web. Aujourd'hui, l'algorithme de Google est de plus en plus sophistiqué et de plus en plus difficile à tromper, c'est pourquoi certaines techniques moins éthiques tomberont en désuétude.
L'une d'elles est connue sous le nom de cloaking et a connu son « boom » il y a de nombreuses années. Aujourd'hui, elle n'est presque plus utilisée, mais il est essentiel de la comprendre pour s'assurer qu'elle n'est présente sur aucun des sites que nous gérons.
Qu'est-ce que le cloaking en SEO ?
Le cloaking est une technique de dissimulation, dont le nom vient de l'anglais et signifie « dissimuler », et qui consiste à montrer un contenu différent du même site web à l'utilisateur et à Googlebot lorsqu'ils font une requête au serveur pour le contenu du site qu'ils visitent.
Cette technique appartient au célèbre Black Hat SEO, ou ensemble de techniques et stratégies trompeuses et non éthiques visant à améliorer le classement d'un site en trompant Google.
Comment se déroule le processus de crawling ?
Pour comprendre comment fonctionne la stratégie de cloaking, nous devons connaître le processus de crawling des bots. Le processus de crawling et d'indexation est effectué par des spiders chargés de reconnaître les sites web. Le spider de Google s'appelle Googlebot, et possède deux versions différentes : deepbot et freshbot. La première est chargée de suivre méticuleusement tous les liens contenus dans le contenu d'un site et de visiter le site. La seconde est chargée de chercher de nouveaux contenus sur le web.
Quelles sont ses origines ?
Les origines du cloaking remontent aux sites web avec du contenu vidéo, graphique ou animé qui ont une plus grande difficulté à se positionner dans les résultats de recherche, et cette technique permet de compenser ce désavantage. Il arrive alors qu'on présente au crawler une page entière de contenu décrivant le contenu des images ou de la vidéo, en raison de la vitesse de traitement des bots.
Comment fonctionne le processus de cloaking ?
Le but de cette technique est de tromper les moteurs de recherche pour améliorer le classement d'un site dans les résultats de recherche. Elle est non éthique car le contenu présenté à l'utilisateur est généralement de nature pornographique ou de jeux d'argent (comme un casino), tandis qu'un contenu très différent est présenté aux robots de Google.
Elle s'effectue généralement à travers deux techniques différentes :
Agent name delivery : l'accès à un site web se fait par le biais d'un « user agent » qui peut aller d'une personne physique à un bot. De ce fait, le serveur peut adapter le contenu à afficher en fonction du type de user agent. Le cloaking se produit alors lorsque des contenus différents sont délivrés selon le type d'utilisateur visitant le site.
Il y a quelque temps, en utilisant le plugin « User agent switcher », vous pouviez naviguer sur la page avec le user agent de Googlebot. C'est très utile pour vérifier s'il existe des différences entre le contenu présenté à l'utilisateur ou aux bots.

IP Delivery : lorsque la livraison du contenu d'un site web tient compte de l'adresse IP depuis laquelle la requête est faite.
Cette technique se réalise en modifiant le fichier .htaccess. Par exemple, le serveur Apache dispose d'un module appelé « mod_rewrite » qui permet cette modification.
Existe-t-il d'autres techniques de cloaking ?
Certaines techniques ne sont pas strictement du cloaking mais cachent ou rendent difficile le crawl de contenu par les bots. Elles peuvent être considérées comme du cloaking :
-
Texte caché ou invisible : il est utilisé pour inclure davantage de mots-clés et d'informations supplémentaires cachés à l'utilisateur. Cette information est « masquée » avec la même couleur que la couleur d'arrière-plan de la page.
-
Sites en Flash : comme vous le savez, l'utilisation du flash n'est pas recommandée dans les guides de recommandations SEO. Les moteurs de recherche sont incapables de lire le contenu et donc de le classer.
-
E-mail : cela se produit lorsque ni le nom ni l'adresse email de l'expéditeur ne sont précisés et que l'on ne sait donc pas qui envoie l'email.
-
Sites avec beaucoup de HTML : un bon SEO recommande un ratio html/texte élevé qui aide à classer les pages dans le moteur de recherche. Mais si ce n'est pas le cas, il y aura peu de texte et le ratio sera faible. Pour contrer cela et éviter une refonte, la technique du cloaking a été utilisée.
-
Galerie d'images : pour compenser les images, les webmasters incluaient des mots-clés qui aidaient au positionnement.
-
Géolocalisation : elle consiste à montrer différentes pages selon la localisation. C'est une tactique actuelle puisque de nombreux sites le font en montrant des contenus différents selon le pays, par exemple. Mais cela devient une technique malveillante si différents contenus sont montrés selon l'utilisateur ou le bot.
-
Avec CSS et JavaScript : comme Google est incapable d'interpréter JavaScript, des mots-clés et des liens peuvent être introduits dans le site. Grâce à une fonction, on peut programmer pour qu'ils ne perturbent pas la navigation de l'utilisateur et ne se distinguent en importance qu'avec des balises H pour Google.
-
Redirections : par le biais de redirections, on envoie l'utilisateur qui clique sur un résultat de recherche vers un site différent. Cela peut être facilement vérifié avec le plugin « Redirect path ». Actuellement, c'est une technique de spam qui est encore utilisée pour tromper et proposer des contenus controversés.
-
La technique la plus récente peut être considérée à la suite du développement des SPAs (Single Page Applications) car ces pages sont développées avec JavaScript et la difficulté de rendu que cela implique pour Google peut être interprétée par le moteur de recherche comme une tentative de tromperie. Avec le plugin « Lighthouse », nous pouvons observer le processus de rendu d'un site dans la console et voir comment le navigateur est capable de traiter le site, ainsi que générer un rapport complet avec des recommandations d'améliorations et d'opportunités.


Perspectives du cloaking en 2020
Cette pratique est obsolète et vous pouvez être lourdement pénalisé par Google si vous l'utilisez aujourd'hui. Alors qu'il y a quelques années, vous pouviez tromper le moteur de recherche, c'est aujourd'hui presque impossible en raison de toutes les mises à jour de l'algorithme qui font de Google un moteur de recherche plus naturel et éthique, axé sur les utilisateurs et sur l'offre de résultats de recherche de qualité centrés sur l'intention de recherche.
Les pratiques Black Hat SEO sont poursuivies et pénalisées par l'équipe webspam chargée de pénaliser les sites qui les utilisent, allant jusqu'à faire disparaître un site entier des résultats de recherche. Par conséquent, cette technique a des résultats totalement éphémères.
Sources consultées :
-
Cyberclick : « Qu'est-ce que le cloaking ? »
-
Luis Villanueva : « Qu'est-ce que le cloaking ? »
-
Ionos : « Qu'est-ce que le cloaking et pourquoi devriez-vous l'éviter ? »
-
We live security : « Qu'est-ce que le cloaking ? »
-
Iebschool : « Qu'est-ce que la dissimulation ou le cloaking SEO ? »
-
Sistrix : « Qu'est-ce que le cloaking ? »
-
Catchupdates : « What is Cloaking in SEO & Should You Do Cloaking? »
-
Search Engine Journal : « What is Cloaking & Is All Cloaking Evil? »
Auteur : David Kaufmann

Cela fait plus de 10 ans que je suis totalement obsédé par le SEO — et honnêtement, je ne voudrais pas qu'il en soit autrement.
Ma carrière a franchi un cap lorsque j'ai travaillé comme Senior SEO Specialist pour Chess.com — l'un des 100 sites les plus visités de tout Internet. Opérer à cette échelle, sur des millions de pages, des dizaines de langues et dans l'une des SERPs les plus concurrentielles qui soient, m'a appris des choses qu'aucun cours ni aucune certification ne pourrait jamais transmettre. Cette expérience a transformé ma vision de ce qu'est réellement un SEO d'excellence — et elle est devenue le socle de tout ce que j'ai construit depuis.
Forcé par cette expérience, j'ai fondé SEO Alive — une agence pour les marques qui prennent la croissance organique au sérieux. Nous ne sommes pas là pour vendre des dashboards et des rapports mensuels. Nous sommes là pour bâtir des stratégies qui font vraiment la différence, en combinant le meilleur du SEO classique avec le nouvel univers passionnant de la Generative Engine Optimization (GEO) — afin que votre marque apparaisse non seulement dans les liens bleus de Google, mais aussi dans les réponses générées par l'AI que ChatGPT, Perplexity et Google AI Overviews livrent chaque jour à des millions de personnes.
Et parce que je ne trouvais aucun outil capable de gérer correctement ces deux mondes, j'en ai construit un moi-même — SEOcrawl, une plateforme d'intelligence SEO pour les entreprises qui réunit rankings, audits techniques, monitoring des backlinks, santé du crawl et suivi de la visibilité de marque dans l'AI, le tout au même endroit. C'est la plateforme dont j'ai toujours rêvé.
Découvrez plus de contenu de cet auteur

