Cloaking: Wat Is Het, Hoe Werkt Het en Waarom Bestraft Google?

Cloaking: Wat Is Het, Hoe Werkt Het en Waarom Bestraft Google?
David Kaufmann
SEO Tutorials
7 min read

Er zijn veel technieken voor het ranken in zoekmachines, maar we kunnen onderscheid maken tussen de goede of voorzichtige technieken die binnen "White Hat SEO" vallen, en de gevaarlijke of slechte praktijken die bekendstaan als "Black Hat SEO". Het hangt allemaal af van hoe transparant en ethisch we zijn als SEO-professionals op onze website in de omgang met de zoekmachine. Tegenwoordig is het algoritme van Google steeds geavanceerder en steeds moeilijker te misleiden, dus bepaalde minder ethische technieken raken in onbruik.

Een daarvan staat bekend als cloaking en had vele jaren geleden zijn "boom". Nu wordt het nauwelijks nog gebruikt, maar het is essentieel om het te begrijpen om er zeker van te zijn dat het niet aanwezig is op een van de websites die we beheren.

Wat Is Cloaking in SEO?

Cloaking is een verhullingstechniek, waarvan de naam uit het Engels komt en "verhullen" betekent, en die bestaat uit het tonen van verschillende content vanaf dezelfde website aan de gebruiker en aan Googlebot wanneer zij een verzoek aan de server doen voor de content van de website die zij bezoeken.

Deze techniek behoort tot het bekende Black Hat SEO, of de verzameling van misleidende en onethische technieken en strategieën gericht op het verbeteren van de ranking van een website door Google te misleiden.

Hoe verloopt het crawlproces?

Om te begrijpen hoe de Cloaking-strategie werkt, moeten we weten hoe het crawlproces van bots verloopt. Het crawl- en indexeringsproces wordt uitgevoerd door spiders die belast zijn met het herkennen van websites. De spider van Google staat bekend als Googlebot, samen met zijn twee verschillende versies deepbot en freshbot. De eerste is verantwoordelijk voor het grondig volgen van alle links in de content van een website en het bezoeken van de site. De tweede is verantwoordelijk voor het zoeken naar nieuwe content op het web.

Wat zijn de oorsprongen?

De oorsprong van Cloaking is te herleiden tot websites met video-, grafische of animatie-inhoud die meer moeite hebben om te ranken in de zoekresultaten, en deze techniek helpt dit nadeel te compenseren. Dan gebeurt het dat aan de crawler een hele pagina met content wordt getoond die de inhoud van de afbeeldingen of video beschrijft vanwege de verwerkingssnelheid die bots hebben.

Hoe werkt het Cloaking-proces?

Het doel van deze techniek is om zoekmachines te misleiden om de ranking van een website in de zoekresultaten te verbeteren. Het is onethisch omdat de content die aan de gebruiker wordt getoond meestal pornografische of gokinhoud is (zoals een casino) terwijl er heel andere content aan de robots van Google wordt getoond.

Over het algemeen wordt het uitgevoerd via twee verschillende technieken:

Agent name delivery: de toegang tot een website verloopt via een "user agent" die kan variëren van een fysiek persoon tot een bot. Hierdoor kan de server de te tonen content aanpassen afhankelijk van het type user agent. Cloaking treedt dan op wanneer er verschillende content wordt geleverd op basis van het type gebruiker dat de site bezoekt.

Enige tijd geleden kon je met de plugin "User agent switcher" door de pagina bladeren met de user agent van Googlebot. Dit is erg nuttig om te controleren of er verschillen zijn tussen de content die aan de gebruiker of aan de bots wordt getoond.

Plugin User agent switcher
Plugin User agent switcher

IP Delivery: Wanneer de levering van de content van een website rekening houdt met het IP-adres van waaruit de query wordt gedaan.

Deze techniek wordt uitgevoerd door het .htaccess-bestand te wijzigen. De Apache-server heeft bijvoorbeeld een module genaamd "mod_rewrite" die deze wijziging mogelijk maakt.

Zijn er meer Cloaking-technieken?

Sommige technieken zijn niet strikt Cloaking, maar verbergen of bemoeilijken het crawlen van content door bots. Ze kunnen worden beschouwd als Cloaking:

  • Verborgen of onzichtbare tekst: Het wordt gebruikt om meer zoekwoorden en aanvullende informatie op te nemen die verborgen is voor de gebruiker. Deze informatie wordt "gemaskeerd" met dezelfde kleur als de achtergrondkleur van de pagina.

  • Flash-websites: Zoals je weet, wordt het gebruik van flash niet aanbevolen in de SEO-aanbevelingsrichtlijnen. Zoekmachines kunnen de content niet lezen en daarom niet ranken.

  • E-mail: Het gebeurt wanneer noch de naam noch het e-mailadres van de afzender wordt gespecificeerd en het daardoor onbekend is wie de e-mail verzendt.

  • Websites met veel HTML: Goede SEO beveelt een hoge html/tekst-verhouding aan die helpt om pagina's in de zoekmachine te ranken. Maar als dit niet het geval is, zal er weinig tekst zijn en zal de verhouding laag zijn. Om dit tegen te gaan en een redesign te vermijden, is de cloaking-techniek gebruikt.

  • Image gallery: Om afbeeldingen te compenseren, namen webmasters zoekwoorden op die zouden helpen bij de ranking.

  • Geolocatie: Het bestaat uit het tonen van verschillende pagina's afhankelijk van de locatie. Dit is een actuele tactiek omdat veel websites het doen door verschillende content te tonen afhankelijk van het land bijvoorbeeld. Maar het wordt een kwaadaardige techniek als er verschillende content wordt getoond afhankelijk van de gebruiker of bot.

  • Met CSS en JavaScript: Aangezien Google JavaScript niet kan interpreteren, kunnen er zoekwoorden en links in de website worden geïntroduceerd. Via een functie kan worden geprogrammeerd dat ze de navigatie van de gebruiker niet verstoren en alleen in importance opvallen met H-headings voor Google.

  • Redirects: Via redirects sturen ze de gebruiker die op een zoekresultaat klikt naar een andere website. Dit kan eenvoudig worden gecontroleerd met de "Redirect path"-plugin. Momenteel is het een spamtechniek die nog steeds wordt gebruikt om te misleiden en controversiële content aan te bieden.

  • De meest recente techniek kan worden beschouwd na de ontwikkeling van SPA's (Single Page Applications) aangezien deze pagina's worden ontwikkeld met JavaScript en de moeilijkheid die dit met zich meebrengt voor Google bij het renderen door de zoekmachine kan worden geïnterpreteerd als een poging tot misleiding. Met de "Lighthouse"-plugin kunnen we het renderingproces van een website in de console observeren en zien hoe de browser de site kan verwerken, evenals een volledig rapport genereren met aanbevelingen voor verbeteringen en kansen.

Lighthouse plugin
Lighthouse plugin

Schermafbeelding 2020 02 06 om 10.19.30 800x658.png
Schermafbeelding 2020 02 06 om 10.19.30 800x658.png

Vooruitzichten voor Cloaking in 2020

Deze praktijk is achterhaald en je kunt streng worden bestraft door Google als je het tegenwoordig gebruikt. Terwijl je jaren geleden de zoekmachine kon misleiden, is het tegenwoordig bijna onmogelijk vanwege alle algoritme-updates die Google een natuurlijkere en ethischere zoekmachine maken die zich richt op gebruikers en op het bieden van kwalitatief hoogwaardige zoekresultaten gericht op de zoekintentie.

Black Hat SEO-praktijken worden vervolgd en bestraft door het webspam-team dat verantwoordelijk is voor het bestraffen van sites die ze gebruiken, zelfs zo ver dat een hele website uit de zoekresultaten verdwijnt. Daarom heeft deze techniek volledig vergankelijke resultaten.

Geraadpleegde bronnen:

  • Cyberclick:* "Wat is Cloaking?"*

  • Luis Villanueva: "Wat is Cloaking?"

  • Ionos: "Wat is Cloaking en waarom moet je het vermijden?"

  • We live security: "Wat is Cloaking?"

  • Iebschool: "Wat is verhulling of Cloaking SEO?"

  • Sistrix: "Wat is Cloaking?"

  • Catchupdates: "Wat is Cloaking in SEO en moet je Cloaking doen?"

  • Search Engine Journal: "Wat is Cloaking en is alle Cloaking kwaadaardig?"

Auteur: David Kaufmann

David Kaufmann

Ik heb de afgelopen 10+ jaar volledig in het teken van SEO gestaan — en eerlijk gezegd zou ik het voor geen goud anders willen.

Mijn carrière bereikte een nieuw niveau toen ik als senior SEO-specialist werkte voor Chess.com — een van de 100 meest bezochte websites van het hele internet. Werken op die schaal, verspreid over miljoenen pagina's, tientallen talen en in een van de meest competitieve SERPs die er bestaan, heeft me dingen geleerd die geen cursus of certificering ooit zou kunnen. Die ervaring veranderde mijn kijk op hoe geweldige SEO er echt uitziet — en werd de basis voor alles wat ik sindsdien heb gebouwd.

Vanuit die ervaring heb ik SEO Alive opgericht — een bureau voor merken die serieus werk willen maken van organische groei. Wij zijn er niet om dashboards en maandelijkse rapporten te verkopen. Wij zijn er om strategieën te bouwen die daadwerkelijk het verschil maken, door het beste van klassieke SEO te combineren met de spannende nieuwe wereld van Generative Engine Optimization (GEO) — zodat jouw merk niet alleen opduikt in de blauwe links van Google, maar ook binnen de AI-gegenereerde antwoorden die ChatGPT, Perplexity en Google AI Overviews elke dag opnieuw aan miljoenen mensen leveren.

En omdat ik geen tool kon vinden die beide werelden goed aanpakte, heb ik er zelf een gebouwd — SEOcrawl, een enterprise SEO intelligence platform dat rankings, technische audits, backlinks-monitoring, crawl-gezondheid en AI brand visibility tracking op één plek samenbrengt. Het is het platform waarvan ik altijd had gewild dat het bestond.

→ Lees alle artikelen van David
Meer artikelen van David Kaufmann

Ontdek meer content van deze auteur