Top 9 SEO-problemen en hoe je ze voorkomt of oplost

Top 9 SEO-problemen en hoe je ze voorkomt of oplost
Ognian Mikov
SEO Tutorials
14 min read

SEO is een complexe discipline die zorgvuldige overweging vereist van diverse factoren en procedures om correct te worden geïmplementeerd. Er zijn verschillende manieren waarop we het mis kunnen hebben en het organische potentieel van een website schaden.

In dit bericht behandelen we de meest voorkomende SEO-problemen en hoe je kunt voorkomen dat je er slachtoffer van wordt. Mocht je al worstelen met dergelijke problemen, dan kunnen we je helpen ze succesvol op te lossen.

Laten we eerst beginnen met de basis.

Wat zijn SEO-problemen?

Een potentieel SEO-probleem dat de prestaties van onze websites in de zoekmachines kan schaden, kan worden geïdentificeerd als een issue. Om een adequate optimalisatie van sites die hoog ranken in Google (en andere zoekmachines) te garanderen, moeten we ons bewust zijn van een paar veelvoorkomende fouten.

Hoe meer pagina's een website heeft, hoe groter de kans op gebroken links. Wanneer een site blijft groeien en meer content produceert, bestaat het gevaar van onopgemerkte 404-pagina's. Hoewel het goed is om nieuwe functies en landingspagina's te ontwikkelen en toe te voegen, moeten we altijd letten op problemen met interne en externe links.

Wij, als gebruikers, vinden het toch niet leuk om op een pagina te belanden die niet werkt? Dit onderbreekt onze flow en resulteert vaak in het direct verlaten van de website.

pagina niet gevonden 404
pagina niet gevonden 404

Bezoekers kunnen de webpagina als niet betrouwbaar ervaren. Zoals we weten, is Google echt goed in het identificeren van de perceptie van gebruikers van een website/pagina. Dus als gebruikers ontevreden zijn, zullen zoekmachines bijgevolg ook ontevreden zijn.

Wat meer is, gebroken pagina's verspillen kostbaar crawl budget dat anders doelgericht zou kunnen worden gebruikt. We willen niet dat de bots tijd en bronnen besteden aan pagina's die niet toegankelijk zijn voor gebruikers.

Het goede nieuws is dat we gebroken interne en externe links gemakkelijk kunnen identificeren dankzij verschillende SEO-tools. Uiteraard, als we een kleinere website hebben met slechts een paar pagina's, kennen we ze waarschijnlijk uit ons hoofd en zal het niet zo moeilijk zijn om ervoor te zorgen dat alles goed werkt.

Maar naarmate we onze websites ontwikkelen, wordt het onmogelijk en overbodig om dit handmatig te doen.

Tip: voer geplande scans uit één keer per week of maand en als je gebroken links identificeert, graaf dieper en probeer ze dienovereenkomstig op te lossen.

SEOcrawl-tool hoe de crawlers een pagina analyseren op SEO-problemen
SEOcrawl-tool hoe de crawlers een pagina analyseren op SEO-problemen

Duplicate content

Duplicate content is een van de oudste en meest voorkomende problemen onder digitale marketeers. Het belangrijkste probleem is dat zoekmachines, waaronder Google, bij het aanbieden van vergelijkbare pagina's moeite kunnen hebben om de juiste URL's te identificeren en te ranken.

Als gevolg daarvan kunnen wij (als SEO's) last hebben van verkeersverlies of gewoon niet het volledige voordeel krijgen van onze websites.

Wij als zoekmachineprofessionals moeten ervoor zorgen dat onze content uniek is. Om het leven van zoekmachines makkelijker te maken, moeten we een paar veelvoorkomende valkuilen vermijden.

Vaak ontstaat duplicate content doordat verschillende versies van dezelfde pagina beschikbaar zijn voor gebruikers en bots. Bijvoorbeeld, als zowel de http- als de https-versie van een website laden zonder de juiste redirects, is dat een veelvoorkomend probleem.

Om dit potentiële probleem te voorkomen, moeten we de juiste http-naar-https-redirects instellen. Dit kunnen we eenvoudig testen door http://oursitename.com in de browser te typen. Als ons https-protocol is ingeschakeld en correct is ingesteld, moet de browser ons doorverwijzen naar https://oursitename.com.

een voorbeeld van een website die de http onveilige versie redirect naar https niet heeft ingeschakeld
een voorbeeld van een website die de http onveilige versie redirect naar https niet heeft ingeschakeld

Op dezelfde manier moet de non-www-versie van een website doorverwijzen naar de www-versie, als dat de hoofdversie van onze website is en omgekeerd.

non-www naar www-versie van een website-redirect voor chess.com
non-www naar www-versie van een website-redirect voor chess.com

Parameters in URL's zijn een andere veelvoorkomende valkuil die duplicate URL's veroorzaakt. Contentmanagementsystemen voegen vaak sorteerparameters toe (voor maat, kleur, model, enz.) die kunnen resulteren in talrijke pagina's met dezelfde inhoud.

voorbeeld van parameters in URL van Amazon
voorbeeld van parameters in URL van Amazon

Toch is dit niets om je zorgen over te maken, mits we correcte canonicals en no-index-attributen implementeren wanneer dat nodig is.

Opmerking: canonical-tags zijn een populaire manier om Google te vertellen welke set vergelijkbare URL's moet worden geïndexeerd en als de hoofdversie moet worden geteld. Een andere manier is om een no-index-attribuut te gebruiken wanneer parameters verschillende URL's met dezelfde of vergelijkbare content veroorzaken.

Title tag-fouten

Title tags behoren tot de belangrijkste on-site SEO-elementen. Ze informeren zoekmachines over wat het hoofdonderwerp van een pagina is. Title tags worden ook getoond in de zoekresultaten bovenaan elke organische vermelding. Dit maakt ze tot een van de sleutelelementen en vaak een doorslaggevende factor voor gebruikers om op een specifiek resultaat te klikken.

Tijd nemen om ze correct in te stellen is een cruciale SEO-taak. Maar soms wordt het verwaarloosd, wat resulteert in lage doorklikratio's.

De belangrijkste problemen met title tags zijn:

  • het volledig ontbreken van de title tags

In dit geval zal Google een title tag instellen op basis van zijn begrip van waar onze pagina over gaat. Meestal slaagt het hier goed in, maar toch is het een gemiste SEO-kans.

Het is goed om de title tags zelf in te stellen, vooral voor onze belangrijkste pagina's.

  • te lange/korte title tags

Het gebruik van korte title tags is een gemiste manier om potentiële gebruikers aan te trekken en hen te laten klikken op onze resultaten. De gebruikelijke praktijk is tussen 55-65 tekens in de zoekresultaten getoond.

Omgekeerd kunnen title tags die te lang zijn (meer dan 65 tekens), worden afgekapt en niet volledig getoond. Dit creëert nog een gemiste kans om onze hele boodschap aan de online wereld te tonen.

afgekapte titel en beschrijving in Google-zoekresultaten
afgekapte titel en beschrijving in Google-zoekresultaten

Zoals we hier kunnen zien, worden zowel de titel als de meta-beschrijving afgekapt en bieden ze daardoor niet de beste gebruikerservaring.

  • duplicate title tags

Het is een gangbare praktijk voor e-commercewebsites om identieke tags te hebben. Dit is vaak ook het geval bij andere soorten sites, helaas. Duplicate title tags maken het moeilijker voor webpagina's om op te vallen en zich te onderscheiden van andere vergelijkbare pagina's.

Screaming Frog-functie om duplicate title tags te vinden
Screaming Frog-functie om duplicate title tags te vinden

Robots.txt-problemen

Robots.txt is een relatief eenvoudig maar nuttig hulpmiddel dat belangrijke informatie en instructies geeft aan zoekmachine-crawlers. Het bevindt zich in de root-directory van de websites en gebruikt het plain text-formaat.

Het kan voorkomen dat bepaalde delen van onze website worden gecrawld, zodat bots geen kostbare bronnen hoeven te verspillen. Er zijn echter enkele potentiële fouten waarvan we ons bewust moeten zijn.

Toegang verlenen tot staging- en dev-sites of admin-panelen

Er zijn verschillende manieren om te voorkomen dat zoekmachines test- en in ontwikkeling zijnde versies van je domein bereiken. Een van de manieren is om een commando in je robots.txt-bestand te gebruiken, hoewel er effectievere manieren zijn om dat te doen (bijv. HTTP-authenticatie).

Een van de meest voorkomende blokkerende instructies voor WP-sites is het uitsluiten van de wp-admin-paneelmap. Zo ziet het eruit:

User-agent: * Disallow: /wp-admin/

User-agent: * betekent dat de instructie van toepassing is op alle bots (Google-bot, Bing-bot, enz.) en de tweede regel zegt dat we willen voorkomen dat ze de /wp-admin/-map en alles wat erin zit, crawlen.

Belangrijke URL's blokkeren voor crawling

Vergelijkbaar met het vorige commando: we willen niet dat belangrijke mappen op onze website door bots niet meer toegankelijk zijn. Een veelgemaakte fout zou bijvoorbeeld kunnen zijn:

User-agent: * Disallow: /example-important-directory/

Of soms hebben we zelfs dit:

User-agent: * Disallow: /

wat in feite betekent dat we de hele website voor alle bots verbieden. Dit wordt meestal gebruikt voordat we de website "openen" voor de wereld tijdens de eerste tests. Soms wordt het echter verwaarloosd en vergeten DEV's of SEO's om het te verwijderen wanneer de website beschikbaar is voor het publiek, inclusief zoekmachines en gebruikers.

Robots.txt is een geweldige manier om het voor zoekmachines makkelijker te maken om het *sitemap-*bestand van een website te vinden. Hoewel het geen enorme fout is als we het missen (vooral voor kleinere websites), is het toch een snelle en nuttige zaak om te doen.

Sitemap-bestandsadres opgenomen in het robots.txt-bestand
Sitemap-bestandsadres opgenomen in het robots.txt-bestand

Meta robots tag-rampen

Meta robots is een van de belangrijkste tags en richtlijnen in het algemeen als het gaat om SEO. Het is een effectieve manier voor site-eigenaren om zoekmachines te informeren dat een bepaalde pagina niet moet worden gevolgd of geïndexeerd.

Er zijn verschillende use-cases en configuraties, maar de populairste (en vaak gevaarlijkste) is de noindex-tag. Het "leeft" in het head-gedeelte van de HTML en ziet er zo uit:

<meta name="robots" content="noindex,follow" />

Eigenlijk betekent het dat we zoekmachines ontmoedigen om onze content te indexeren in de zoekresultaten, maar we willen wel dat ze de links op die pagina volgen. We kunnen verschillende potentiële problemen oplossen door te voorkomen dat zoekmachines content indexeren. Bijvoorbeeld:

  • pagina's met thin content die geen echte waarde bieden voor gebruikers- afrekenpagina's op eCommerce-websites- URL's die gevoelige informatie bevatten- dev/staging-pagina's die nog niet klaar zijn om voor het publiek te worden gelanceerd

Het meest voorkomende probleem dat optreedt met het noindex-commando is vergeten te verwijderen voor een belangrijke pagina (of de hele website) wanneer die klaar is om officieel te worden gelanceerd in de online wereld. Stel dat DEV's er lange tijd aan hebben gewerkt, verschillende dingen hebben getest, en dan vergeet iemand het te verwijderen zodra het is gelanceerd.

Ongetwijfeld is dit een van de eerste (en eenvoudigste) checks om te doen als je je afvraagt waarom een bepaalde website of specifieke sectie geen organisch verkeer oplevert.

Je hoeft alleen maar de broncode te openen en te zoeken (ctrl+f) naar het "robots"-commando. Als je de "no index"-richtlijn opmerkt, zit je in de problemen! Het goede nieuws is wel dat je nu de reden weet en hoe je het gemakkelijk kunt oplossen.

meta robots noindex in de broncode
meta robots noindex in de broncode

Canonicals lopen mis

De canonical-tag is een krachtig wapen in het arsenaal van SEO's. Het wordt vaak gebruikt om potentiële SEO-problemen met vergelijkbare content op verschillende URL's te voorkomen.

Bijvoorbeeld is het zeer gebruikelijk in E-commerce magazines met verschillende parameters in de pagina's die mogelijk problemen met duplicate content kunnen veroorzaken.

Met de canonical vertellen we zoekmachines simpelweg welke de "hoofd"- / "originele" pagina is, zodat alle andere versies geen problemen veroorzaken. Bovendien weet Google welke pagina prioriteit moet krijgen en getoond moet worden in de zoekresultaten.

Er zijn een paar problemen die hier kunnen optreden. Een ervan is, zoals al genoemd, geen canonical hebben ingesteld wanneer je verschillende URL's met dezelfde content hebt.

ontbrekende canonical gemeld door de SEOcrawl-crawler
ontbrekende canonical gemeld door de SEOcrawl-crawler

Als de canonical wel is ingesteld, zijn dit de meest voorkomende gevaren waarvan je je bewust moet zijn:

  • canonical-URL wijst naar een URL met noindex-tag- canonical-URL wijst naar een URL die een 4xx- of 5xx-statuscode retourneert- canonical-URL wijst naar de niet-veilige http-versie van een pagina (wanneer we ook de veilige versie beschikbaar hebben)- niet-zelfverwijzende canonical (de zogenaamde gecanoniseerde URL)

Opmerking: dit kan in orde zijn als het opzettelijk is, hoewel we in de meeste gevallen zelfverwijzende canonicals zouden willen

  • canonical-tag is leeg of wijst naar een ongeldige pagina

Hreflang-problemen

Hreflangs zijn hyperlinkverwijzingen in de HTML-code van een pagina waarmee we de alternatieve URL's kunnen specificeren die zijn toegewezen aan een bepaalde taal of regio. Ze zijn vooral belangrijk voor websites die in verschillende landen opereren en content in verschillende talen aanbieden.

SEOcrawl-tool toont hreflang-inspectie en inzichten voor seoalive.com-domein
SEOcrawl-tool toont hreflang-inspectie en inzichten voor seoalive.com-domein

Het hoofdidee achter de hreflang-verwijzingen is om ervoor te zorgen dat we de juiste websiteversie tonen volgens de gebruikers en hun land/taal.

Bijvoorbeeld, voor de Spaanse bezoekers willen we de /es-versie van een website/pagina aanbieden, voor de Duitse bezoekers moet het /de zijn, enzovoort.

Eigenlijk informeren we Google welke pagina en in welke taal getoond moet worden aan de gebruikers, afhankelijk van hun taalinstellingen en locatie.

Hreflang-annotaties zien er zo uit:

<link rel="alternate" href="https://www.example.com/es/" hreflang="es" />

De meest voorkomende hreflang-problemen zijn:

  • ontbrekende retourlink

Alternatieve URL's moeten dezelfde code hebben als de pagina die alternatieve hreflang-URL's bevat. Wanneer je een hreflang-tag gebruikt en pagina X linkt naar pagina Y, moet pagina Y terugkoppelen naar pagina X. In feite moet elke regel hreflang-code die naar een andere pagina verwijst, dezelfde code hebben op elke pagina waaraan hij wordt toegevoegd.

  • gedetecteerde taal komt niet overeen met opgegeven taal

Soms verschilt de taal die in de hreflang-tags is opgegeven van de werkelijke pagina-inhoud

  • verkeerde ISO-codes

Een populaire fout is het gebruik van "en-UK" in plaats van "en-GB" bij het targeten van Engelssprekende bezoekers in het Verenigd Koninkrijk. De syntaxis is ook erg belangrijk. Hoewel veel websites underscores gebruiken om talen in hun URL's te specificeren, werken voor hreflangs alleen streepjes.

  • ontbrekende zelfverwijzende tag

Het toevoegen van een zelfverwijzende hreflang-tag is een must om ervoor te zorgen dat internationale sites correct zijn ingesteld en gemakkelijk te begrijpen zijn door zoekmachines.

  • relatieve URL's gebruiken in plaats van absolute

Een andere veelgemaakte fout met hreflangs. We moeten relatieve adressen die alleen een pad bieden vermijden en altijd gaan voor het volledige paginapad.

Correct:

<link rel="alternate" href="https://www.example.com/es/spanish-post" hreflang="es" />

Onjuist:

<link rel="alternate" href="es/spanish-post" hreflang="es" />

Hier is een nuttige tool voor het identificeren van hreflang-problemen- https://technicalseo.com/tools/hreflang/

JavaScript-gevaren

Hoewel Google bevestigt dat JavaScript kan worden gebruikt zonder SEO-problemen te veroorzaken, moeten we er voorzichtig mee zijn. Vaak gebruiken ontwikkelaars JS om belangrijke content en links te laden, en dit kan ons in een situatie brengen waarin zoekmachines niet in staat zijn om de content correct te crawlen en te begrijpen.

Daarom is het aan te raden om extra tijd te besteden aan het inspecteren van onze websites om te zien of alle belangrijke informatie correct wordt weergegeven.

Bijvoorbeeld kan een slechte JS-implementatie erin resulteren dat Google de meta-titels en -beschrijvingen die we hebben ingesteld niet leest, wat vervolgens problemen creëert met onze CTR in de zoekresultaten.

SEOcrawl-crawler meldt een ontbrekende title tag van een pagina
SEOcrawl-crawler meldt een ontbrekende title tag van een pagina

Daarom is het van cruciaal belang om je bewust te zijn van de interpretatie van Google van onze JavaScript-content en of ze de informatie correct kunnen crawlen en indexeren.

Mobiele bruikbaarheidsproblemen

Het zal waarschijnlijk niemand verbazen als we zeggen dat de mobiele bruikbaarheid en prestaties van een website twee van de belangrijkste SEO-factoren zijn van vandaag de dag.

Het is al een paar jaar geleden dat Google overschakelde op mobile-first indexing en met prioriteit rekening houdt met de mobiele versie van een webpagina.

Een van de belangrijkste problemen die vroeger vaker werden gezien, was het tonen van andere content aan desktop- en mobiele gebruikers. Dit is een zeer gevaarlijke praktijk en kan resulteren in lagere organische resultaten.

Enkele van de belangrijkste factoren die de prestaties van de website kunnen beïnvloeden zijn:

  • een groot aantal plugins

Probeer weg te blijven van het installeren van een groot aantal plugins. Hoe meer plugins je hebt, hoe zwaarder en logger je website wordt.

Wat meer is, plugins zijn het potentiële toegangspunt voor hackers (wanneer ze niet op tijd worden bijgewerkt), dus ze kunnen ook een veiligheidsrisico vormen.

  • niet-geoptimaliseerde afbeeldingen

Afbeeldingen zijn een van de meest voorkomende factoren die de snelheid van pagina's en de algehele prestaties van een website beïnvloeden. Niemand geniet van langzaam ladende websites, dus we raden altijd aan om te proberen de afbeeldingen kleiner dan 100 kb in grootte te houden.

Page Speed Insights-tool van Google met aanbevelingen om afbeeldingen correct te formatteren
Page Speed Insights-tool van Google met aanbevelingen om afbeeldingen correct te formatteren

  • hostingdiensten

Houd er rekening mee dat de server waar je je website host de basis is waarop alles wordt gebouwd. Daarom is het beter om niet voor de goedkoopste oplossing te kiezen en jezelf in de toekomst problemen te besparen. Het is de moeite waard om iets meer te investeren maar te weten dat je in ruil daarvoor een betrouwbare, veilige en snelle hostingdienst krijgt.

Samenvattend

Zoals we al hebben gezien, zijn er talloze manieren waarop het mis kan gaan als het op SEO aankomt. Het is ook de moeite waard om op te merken dat dit slechts een paar van de meest populaire en voorkomende SEO-technische problemen zijn die we kunnen tegenkomen. Er zijn nog veel meer SEO-nachtmerries die kunnen gebeuren.

Hopelijk hebben we je tot nu toe geholpen een beter idee en begrip te krijgen van de belangrijkste SEO-problemen en wat nog belangrijker is - hoe je ze kunt voorkomen of oplossen.

Veel succes!

Auteur: Ognian Mikov

Ognian Mikov

SEO kwam in 2012 mijn leven binnen en sindsdien ben ik er helemaal verliefd op. Voor mij is het veel meer dan alleen een baan — het is tegelijk een passie en een hobby die me blijft motiveren om te leren en te groeien. Of ik nu nieuwe onderwerpen onderzoek, content creëer of me verdiep in technische optimalisaties: de enorme wereld van digital marketing blijft me fascineren, net als alle mogelijkheden om de prestaties van een website te verbeteren.

In 2021 ben ik begonnen bij SEO Alive en SEOcrawl — mijn eerste remote bedrijf — waar ik nieuwe vaardigheden heb kunnen ontwikkelen en aan boeiende projecten heb mogen werken. Maar belangrijker nog: ik heb de kans gehad om geweldige collega's te leren kennen en van hen te leren, van wie er inmiddels ook veel vrienden zijn geworden.

Ik heb een bachelor in Marketing en een master in PR & Reclame. In mijn vrije tijd breng ik graag tijd door met mijn dochter en speel en kijk ik graag schaak, voetbal (Само Левски & Més que un club) en poker.

→ Lees alle artikelen van Ognian
Meer artikelen van Ognian Mikov

Ontdek meer content van deze auteur