Top 9 SEO-Probleme und wie du sie vermeidest oder behebst

Top 9 SEO-Probleme und wie du sie vermeidest oder behebst
Ognian Mikov
SEO Tutorials
13 min read

SEO ist eine komplexe Disziplin, die eine sorgfältige Beachtung verschiedener Faktoren und Vorgänge erfordert, um korrekt umgesetzt zu werden. Es gibt verschiedene Wege, auf denen wir Fehler machen und das organische Potenzial einer Webseite beeinträchtigen können.

In diesem Beitrag werden wir die häufigsten SEO-Probleme behandeln und wie du vermeidest, ihnen zum Opfer zu fallen. Ebenso können wir dir, wenn du bereits mit solchen Problemen kämpfst, helfen, sie erfolgreich zu beheben.

Beginnen wir zunächst mit den Grundlagen.

Was sind SEO-Probleme?

Ein potenzielles SEO-Problem, das die Performance unserer Webseiten in den Suchmaschinen beeinträchtigen könnte, könnte als Issue identifiziert werden. Um eine angemessene Optimierung von Webseiten sicherzustellen, die in Google (und anderen Suchmaschinen) hoch ranken, sollten wir uns einiger häufiger Fehler bewusst sein.

Je mehr Seiten eine Webseite hat, desto höher sind die Chancen für defekte Links. Wenn eine Webseite weiter wächst und mehr Inhalte produziert, besteht die Gefahr unbemerkter 404-Seiten. Während es gut ist, neue Funktionen und Landing Pages zu entwickeln und hinzuzufügen, müssen wir immer auf Probleme mit internen und externen Links achten.

Wir als Nutzer mögen es nicht, auf eine Seite zu stoßen, die nicht funktioniert, oder? Das unterbricht unseren Fluss und führt oft dazu, dass wir die Webseite sofort verlassen.

Seite nicht gefunden 404
Seite nicht gefunden 404

Besucher könnten die Webseite als nicht vertrauenswürdig wahrnehmen. Wie wir wissen, ist Google wirklich gut darin, die Wahrnehmung der Nutzer von einer Webseite/Seite zu identifizieren. Wenn die Nutzer also unzufrieden sind, werden auch die Suchmaschinen unzufrieden sein.

Außerdem verschwenden defekte Seiten wertvolles Crawl-Budget, das ansonsten zweckmäßig genutzt werden könnte. Wir wollen nicht, dass die Bots Zeit und Ressourcen mit Seiten verbringen, die für die Nutzer nicht zugänglich sind.

Die gute Nachricht ist, dass wir defekte interne und externe Links dank verschiedener SEO-Tools leicht identifizieren können. Wenn wir natürlich eine kleinere Webseite mit nur wenigen Seiten haben, kennen wir diese wahrscheinlich auswendig und es wird nicht so schwierig sein sicherzustellen, dass alles gut funktioniert.

Doch je mehr wir unsere Webseiten weiterentwickeln, desto unmöglicher und unnötiger wird es, dies manuell zu tun.

Tipp: Führe geplante Scans einmal pro Woche oder Monat durch und wenn du defekte Links identifizierst, gehe tiefer und versuche, sie entsprechend zu beheben.

SEOcrawl-Tool wie der Crawler eine Seite auf SEO-Probleme analysiert
SEOcrawl-Tool wie der Crawler eine Seite auf SEO-Probleme analysiert

Duplicate Content

Duplicate Content ist eines der ältesten und häufigsten Probleme, die unter Digital Marketern bekannt sind. Die Hauptsorge ist, dass Suchmaschinen, einschließlich Google, Schwierigkeiten haben können, die richtigen URLs zu identifizieren und zu ranken, indem sie ähnliche Seiten bereitstellen.

Infolgedessen können wir (als SEOs) unter Trafficverlust leiden oder einfach nicht den vollen Nutzen aus unseren Webseiten ziehen.

Wir als Suchmaschinen-Profis müssen sicherstellen, dass unser Content einzigartig ist. Um den Suchmaschinen das Leben einfacher zu machen, sollten wir einige häufige Fallstricke vermeiden.

Oft entsteht Duplicate Content dadurch, dass verschiedene Versionen derselben Seite für Nutzer und Bots verfügbar gemacht werden. Zum Beispiel ist es ein häufiges Problem, sowohl die http- als auch die https-Version einer Webseite ohne die richtigen Weiterleitungen zu laden.

Um dieses potenzielle Problem zu vermeiden, müssten wir die richtigen http-zu-https-Weiterleitungen einrichten. Wir können das einfach testen, indem wir http://oursitename.com in den Browser eingeben. Falls unser https-Protokoll aktiviert und korrekt eingerichtet ist, sollte uns der Browser zu https://oursitename.com weiterleiten.

Beispiel einer Webseite, die die unsichere http-Version nicht zur https-Version umleitet
Beispiel einer Webseite, die die unsichere http-Version nicht zur https-Version umleitet

Auf gleiche Weise sollte die Non-www-Version einer Webseite auf die www-Version umleiten, wenn das die Hauptversion unserer Webseite ist, und umgekehrt.

Non-www zu www Version einer Webseite-Weiterleitung für chess.com
Non-www zu www Version einer Webseite-Weiterleitung für chess.com

Parameter in URLs sind eine weitere häufige Falle, die doppelte URLs verursacht. Content-Management-Systeme fügen oft Sortierparameter hinzu (für Größe, Farbe, Modell usw.), die zu zahlreichen Seiten mit demselben Inhalt führen können.

Parameter in URL-Beispiel von Amazon
Parameter in URL-Beispiel von Amazon

Dennoch ist das nichts, worüber man sich Sorgen machen muss, vorausgesetzt, wir implementieren korrekte Canonicals und No-Index-Attribute, wenn nötig.

Hinweis: Canonical-Tags sind ein beliebter Weg, um Google mitzuteilen, welche Reihe ähnlicher URLs als die wichtigste indexiert und gezählt werden soll. Ein anderer Weg ist die Verwendung eines No-Index-Attributs, wenn Parameter unterschiedliche URLs mit gleichem oder ähnlichem Inhalt verursachen.

Title-Tag-Fehler

Title-Tags gehören zu den wichtigsten On-Site-SEO-Elementen. Sie informieren Suchmaschinen darüber, was das Hauptthema einer Seite ist. Title-Tags werden auch in den Suchergebnissen oben in jedem organischen Listing angezeigt. Das macht sie zu einem der Schlüsselelemente und oft einem entscheidenden Faktor dafür, dass Nutzer auf ein bestimmtes Ergebnis klicken.

Sich die Zeit zu nehmen, sie korrekt einzurichten, ist eine entscheidende SEO-Aufgabe. Manchmal wird sie jedoch vernachlässigt, was zu niedrigen Klickraten führt.

Die Hauptprobleme bei Title-Tags sind:

  • die Title-Tags ganz fehlen

In diesem Fall wird Google einen Title-Tag basierend auf seinem Verständnis dessen, worum es auf unserer Seite geht, festlegen. Üblicherweise meistert es diese Aufgabe gut, aber dennoch ist es eine verpasste SEO-Chance.

Es ist gut, Title-Tags selbst zu setzen, vor allem für unsere wichtigsten Seiten.

  • zu lange/kurze Title-Tags

Die Verwendung von kurzen Title-Tags ist ein verpasster Weg, potenzielle Nutzer anzuziehen und sie dazu zu bringen, auf unsere Ergebnisse zu klicken. Üblich ist es, zwischen 55-65 Zeichen in den Suchergebnissen anzuzeigen.

Umgekehrt können Title-Tags, die zu lang sind (über 65 Zeichen), abgeschnitten werden und nicht vollständig angezeigt werden. Das wird eine weitere verpasste Gelegenheit schaffen, unsere ganze Botschaft an die Online-Welt zu zeigen.

Abgeschnittener Title und Description in den Google-Suchergebnissen
Abgeschnittener Title und Description in den Google-Suchergebnissen

Wie wir hier sehen können, sind sowohl der Title als auch die Meta Description abgeschnitten und bieten somit nicht die beste User Experience.

  • doppelte Title-Tags

Es ist eine gängige Praxis bei E-Commerce-Webseiten, identische Tags zu haben. Das ist leider oft auch bei anderen Arten von Seiten der Fall. Doppelte Title-Tags machen es schwerer für Webseiten, sich abzuheben und sich von anderen ähnlichen Seiten zu unterscheiden.

Screaming Frog Funktion zum Finden doppelter Title-Tags
Screaming Frog Funktion zum Finden doppelter Title-Tags

Robots.txt-Probleme

Robots.txt ist ein relativ einfaches, aber nützliches Tool, das wichtige Informationen und Anweisungen für Suchmaschinen-Crawler bereitstellt. Sie befindet sich im Stammverzeichnis der Webseiten und verwendet Klartext-Format.

Sie kann verhindern, dass bestimmte Bereiche unserer Webseite gecrawlt werden, sodass Bots keine wertvollen Ressourcen verschwenden müssen. Es gibt jedoch einige potenzielle Fehler, die wir kennen sollten.

Zugriff auf Staging- und Dev-Sites oder Admin-Panels gewähren

Es gibt mehrere Wege, Suchmaschinen davon abzuhalten, auf Test- und in Entwicklung befindliche Versionen deiner Domain zuzugreifen. Eine der Möglichkeiten ist die Verwendung eines Befehls in deiner robots.txt-Datei, obwohl es effektivere Wege gibt, dies zu tun (z. B. HTTP-Authentifizierung).

Eine der häufigsten Sperranweisungen für WP-Seiten ist es, den wp-admin-Panel-Ordner auszuschließen. So sieht es aus:

User-agent: * Disallow: /wp-admin/

User-agent: * bedeutet, dass die Anweisung für alle Bots gilt (Google-Bot, Bing-Bot usw.) und die zweite Zeile sagt aus, dass wir sie davon abhalten wollen, den /wp-admin/-Ordner und alles darin zu crawlen.

Wichtige URLs vom Crawling ausschließen

Ähnlich wie beim vorherigen Befehl wollen wir keine wichtigen Ordner auf unserer Webseite vom Bot-Zugriff ausschließen. Zum Beispiel könnte ein häufiger Fehler sein:

User-agent: * Disallow: /example-important-directory/

Oder manchmal könnten wir sogar das hier haben:

User-agent: * Disallow: /

was im Grunde bedeutet, die gesamte Webseite für alle Bots zu sperren. Das wird üblicherweise vor dem "Öffnen" der Webseite für die Welt während der ersten Tests verwendet. Manchmal wird es jedoch vernachlässigt und DEVs oder SEOs vergessen, es zu entfernen, wenn die Webseite für die Öffentlichkeit, einschließlich Suchmaschinen und Nutzer, verfügbar ist.

Robots.txt ist ein toller Weg, um es Suchmaschinen einfacher zu machen, die Sitemap-Datei einer Webseite zu finden. Obwohl es kein riesiger Fehler ist, wenn wir es vergessen (insbesondere bei kleineren Webseiten), ist es immer noch eine schnelle und nützliche Sache.

Sitemap-Dateiadresse in der robots.txt-Datei aufgenommen
Sitemap-Dateiadresse in der robots.txt-Datei aufgenommen

Meta-Robots-Tag-Desaster

Meta Robots ist eines der wichtigsten Tags und Direktiven insgesamt, wenn es um SEO geht. Es ist ein effektiver Weg für Webseitenbetreiber, Suchmaschinen mitzuteilen, dass eine bestimmte Seite nicht verfolgt oder indexiert werden soll.

Es gibt verschiedene Anwendungsfälle und Konfigurationen, aber das beliebteste (und oft gefährlichste) ist der Noindex-Tag. Er "lebt" im Head-Bereich des HTML und sieht so aus:

<meta name="robots" content="noindex,follow" />

Im Grunde bedeutet das, dass wir Suchmaschinen davon abhalten, unseren Content zu indexieren in den Suchergebnissen, aber wir möchten, dass sie den Links auf dieser Seite folgen. Wir können verschiedene potenzielle Probleme lösen, indem wir Suchmaschinen daran hindern, Inhalte zu indexieren. Zum Beispiel:

  • Seiten mit Thin Content, die keinen wirklichen Wert für Nutzer bieten- Checkout-Seiten auf E-Commerce-Webseiten- URLs mit sensiblen Informationen- Dev-/Staging-Seiten, die nicht bereit sind, für die Öffentlichkeit gestartet zu werden

Das häufigste Problem, das mit dem Noindex-Befehl auftritt, ist es, das Entfernen zu vergessen für eine wichtige Seite (oder die ganze Webseite), sobald sie bereit ist, offiziell der Online-Welt vorgestellt zu werden. Sagen wir, DEVs haben lange daran gearbeitet, verschiedene Sachen getestet, und dann vergisst einfach jemand, es zu entfernen, sobald es gestartet wurde.

Zweifellos ist das einer der ersten (und einfachsten) Checks, die du durchführen solltest, wenn du dich fragst, warum eine bestimmte Webseite oder ein bestimmter Bereich keinen organischen Traffic bringt.

Du musst nur den Quellcode öffnen und (Strg+F) nach dem "Robots"-Befehl suchen. Wenn du die "No Index"-Direktive bemerkst, dann bist du in Schwierigkeiten! Die gute Nachricht ist jedoch, dass du jetzt den Grund kennst und weißt, wie du es einfach beheben kannst.

Meta-Robots-Noindex im Quellcode
Meta-Robots-Noindex im Quellcode

Canonicals laufen schief

Der Canonical-Tag ist eine mächtige Waffe im Arsenal von SEOs. Er wird oft verwendet, um potenzielle SEO-Probleme mit ähnlichem Content auf verschiedenen URLs zu vermeiden.

Zum Beispiel ist es bei E-Commerce-Magazinen sehr verbreitet, mit verschiedenen Parametern auf den Seiten zu arbeiten, was potenziell Duplicate-Content-Probleme verursachen könnte.

Mit dem Canonical sagen wir den Suchmaschinen einfach, welche die "Haupt-" / "Original"-Seite ist, sodass alle anderen Versionen keine Probleme verursachen. Außerdem weiß Google, welche Seite priorisiert und in den Suchergebnissen angezeigt werden soll.

Hier können einige Probleme auftreten. Eines davon ist, wie bereits erwähnt, dass kein Canonical eingerichtet ist, wenn man verschiedene URLs mit dem gleichen Inhalt hat.

Fehlender Canonical, gemeldet vom SEOcrawl-Crawler
Fehlender Canonical, gemeldet vom SEOcrawl-Crawler

Falls Canonical eingerichtet ist, hier sind die häufigsten Gefahren, die du kennen solltest:

  • Canonical-URL zeigt auf eine URL mit Noindex-Tag- Canonical-URL zeigt auf eine URL, die einen 4xx- oder 5xx-Statuscode zurückgibt- Canonical-URL zeigt auf die nicht sichere http-Version einer Seite (wenn wir auch die sichere Version verfügbar haben)- nicht selbstreferenzierende Canonical (die sogenannte canonicalisierte URL)

Hinweis: Das könnte in Ordnung sein, wenn es absichtlich ist, obwohl wir in den meisten Fällen selbstreferenzierende Canonicals wollen.

  • Canonical-Tag ist leer oder zeigt auf eine ungültige Seite

Hreflang-Probleme

Hreflangs sind Hyperlink-Referenzen im HTML-Code einer Seite, die uns erlauben, die alternativen URLs zu spezifizieren, die einer bestimmten Sprache oder Region zugewiesen sind. Sie sind besonders wichtig für Webseiten, die in verschiedenen Ländern operieren und Content in verschiedenen Sprachen bereitstellen.

SEOcrawler-Tool zeigt Hreflang-Inspektion und Insights für die Domain seoalive.com
SEOcrawler-Tool zeigt Hreflang-Inspektion und Insights für die Domain seoalive.com

Die Hauptidee hinter den Hreflang-Referenzen ist sicherzustellen, dass wir die richtige Webseiten-Version je nach den Nutzern und ihrem Land/ihrer Sprache anzeigen.

Zum Beispiel wollen wir für die spanischen Besucher die /es-Version einer Webseite/Seite bereitstellen, für die deutschen Besucher sollte es /de sein, und so weiter.

Im Wesentlichen informieren wir Google darüber, welche Seite und in welcher Sprache sie den Nutzern angezeigt werden soll, abhängig von ihren Spracheinstellungen und ihrem Standort.

Hreflang-Annotationen sehen so aus:

<link rel="alternate" href="https://www.example.com/es/" hreflang="es" />

Die häufigsten Hreflang-Probleme umfassen:

  • fehlender Rück-Link

Alternative URLs sollten denselben Code haben wie die Seite, die alternative Hreflang-URLs enthält. Wenn ein Hreflang-Tag verwendet wird und Seite X auf Seite Y verlinkt, muss Seite Y zurück auf Seite X verlinken. Im Grunde sollte jede Zeile Hreflang-Code, die auf eine andere Seite verweist, denselben Code auf jeder Seite haben, der sie hinzugefügt wird.

  • erkannte Sprache stimmt nicht mit der angegebenen Sprache überein

Manchmal unterscheidet sich die in den Hreflang-Tags angegebene Sprache vom tatsächlichen Seiteninhalt

  • falsche ISO-Codes

Ein beliebter Fehler ist die Verwendung von "en-UK" anstelle von "en-GB" beim Targeting englischsprachiger Besucher im Vereinigten Königreich. Auch die Syntax ist sehr wichtig. Obwohl viele Webseiten Unterstriche verwenden, um Sprachen in ihren URLs anzugeben, funktionieren nur Bindestriche für Hreflangs.

  • fehlender selbstreferenzierender Tag

Das Hinzufügen eines selbstreferenzierenden Hreflang-Tags ist ein Muss, um sicherzustellen, dass internationale Seiten korrekt eingerichtet und für Suchmaschinen leicht verständlich sind.

  • Verwendung von relativen URLs anstelle von absoluten

Ein weiterer häufiger Fehler bei Hreflangs. Wir sollten relative Adressen vermeiden, die nur einen Pfad bereitstellen, und immer den vollständigen Seitenpfad wählen.

Korrekt:

<link rel="alternate" href="https://www.example.com/es/spanish-post" hreflang="es" />

Falsch:

<link rel="alternate" href="es/spanish-post" hreflang="es" />

Hier ist ein nützliches Tool zur Identifizierung von Hreflang-Problemen- https://technicalseo.com/tools/hreflang/

JavaScript-Gefahren

Obwohl Google bestätigt, dass JavaScript verwendet werden kann, ohne SEO-Probleme zu verursachen, sollten wir vorsichtig damit umgehen. Oft verwenden Entwickler JS, um wichtigen Content und Links zu laden, und das kann uns in eine Situation bringen, in der Suchmaschinen nicht in der Lage sind, den Content korrekt zu crawlen und zu verstehen.

Daher wird empfohlen, zusätzliche Zeit zu investieren und unsere Webseiten zu inspizieren, um zu sehen, ob alle wichtigen Informationen korrekt angezeigt werden.

Zum Beispiel könnte eine schlechte JS-Implementierung dazu führen, dass Google die von uns eingerichteten Meta-Titel und -Beschreibungen nicht liest, was dann Probleme mit unserer CTR in den Suchergebnissen verursacht.

SEOcrawl-Crawler meldet einen fehlenden Title-Tag von einer Seite
SEOcrawl-Crawler meldet einen fehlenden Title-Tag von einer Seite

Deshalb ist es entscheidend wichtig, sich der Interpretation unseres JavaScript-Contents durch Google bewusst zu sein und ob es in der Lage ist, die Informationen korrekt zu crawlen und zu indexieren.

Mobile-Usability-Probleme

Es wird wahrscheinlich niemanden überraschen, wenn wir sagen, dass die Mobile-Usability und -Performance einer Webseite zwei der wichtigsten SEO-Faktoren heutzutage sind.

Es sind ein paar Jahre vergangen, seit Google auf Mobile-First-Indexing umgestellt hat und die Mobile-Version einer Webseite mit Priorität berücksichtigt.

Eines der Hauptprobleme, die früher häufiger zu sehen waren, war es, unterschiedlichen Content für Desktop- und Mobile-Nutzer anzuzeigen. Das ist eine sehr gefährliche Praxis und könnte zu schlechteren organischen Ergebnissen führen.

Einige der Hauptfaktoren, die die Performance der Webseite beeinflussen könnten, umfassen:

  • eine große Anzahl an Plugins

Versuche, von der Installation einer großen Anzahl an Plugins Abstand zu nehmen. Je mehr Plugins du hast, desto schwerer und unhandlicher wird deine Webseite.

Außerdem sind Plugins die potenzielle Eintrittspforte für Hacker (wenn sie nicht rechtzeitig aktualisiert werden), sodass sie auch ein Sicherheitsrisiko darstellen können.

  • nicht optimierte Bilder

Bilder sind einer der häufigsten Faktoren, die die Geschwindigkeit der Seiten und die Gesamtleistung einer Webseite beeinflussen. Niemand mag langsam ladende Webseiten, daher empfehlen wir immer zu versuchen, die Bilder unter 100 kb groß zu halten.

Page Speed Insights Tool von Google mit Empfehlungen zur richtigen Größe von Bildern
Page Speed Insights Tool von Google mit Empfehlungen zur richtigen Größe von Bildern

  • Hosting-Dienste

Berücksichtige, dass der Server, auf dem du deine Webseite hostest, die Basis ist, auf der alles aufgebaut wird. Daher ist es besser, nicht die billigste Lösung zu wählen und sich Probleme in der Zukunft zu ersparen. Es lohnt sich, ein bisschen mehr zu investieren, aber im Gegenzug wirst du einen zuverlässigen, sicheren und schnellen Hosting-Service bekommen.

Zusammenfassend

Wie wir bereits gesehen haben, gibt es zahlreiche Wege, bei SEO Fehler zu machen. Es ist auch erwähnenswert, dass dies nur einige der beliebtesten und häufigsten technischen SEO-Probleme sind, die uns begegnen könnten. Es gibt viel mehr SEO-Albträume, die passieren könnten.

Hoffentlich haben wir dir bisher geholfen, eine bessere Vorstellung und ein besseres Verständnis der wichtigsten SEO-Probleme zu bekommen, und was noch wichtiger ist - wie du sie vermeidest oder behebst.

Viel Glück!

Autor: Ognian Mikov

Ognian Mikov

SEO kam 2012 in mein Leben und seitdem bin ich ihm regelrecht verfallen. Für mich ist es weit mehr als nur ein Beruf – es ist gleichzeitig Leidenschaft und Hobby, das mich täglich antreibt, dazuzulernen und besser zu werden. Ob ich neue Themen recherchiere, Inhalte erstelle oder mich in technische Optimierungen vertiefe: Die riesige Welt des Digital Marketings fasziniert mich immer wieder aufs Neue – genauso wie die vielen Möglichkeiten, die Performance einer Website zu steigern.

2021 bin ich zu SEO Alive und SEOcrawl gestoßen – mein erstes Remote-Unternehmen –, wo ich neue Fähigkeiten entwickeln und an spannenden Projekten arbeiten durfte. Am wichtigsten aber: Ich hatte die Chance, großartige Kolleginnen und Kollegen kennenzulernen und von ihnen zu lernen, die inzwischen auch zu Freunden geworden sind.

Ich habe einen Bachelor in Marketing und einen Master in PR & Werbung. In meiner Freizeit verbringe ich gerne Zeit mit meiner Tochter und spiele und schaue leidenschaftlich gern Schach, Fußball (Само Левски & Més que un club) und Poker.

→ Alle Artikel von Ognian lesen
Weitere Artikel von Ognian Mikov

Entdecke weitere Inhalte von diesem Autor