Top 9 des Problèmes SEO et Comment les Éviter ou les Corriger

Le SEO est une discipline complexe nécessitant une attention particulière à divers facteurs et procédures pour être correctement mis en œuvre. Il existe différentes manières de se tromper et de nuire au potentiel organique d'un site web.
Dans cet article, nous allons couvrir les problèmes SEO les plus courants et comment éviter d'en être victime. De même, si vous êtes déjà aux prises avec ces problèmes, nous pouvons vous aider à les résoudre avec succès.
Tout d'abord, commençons par les bases.
Que sont les Problèmes SEO ?
Un problème SEO potentiel qui pourrait nuire aux performances de nos sites web dans les moteurs de recherche pourrait être identifié comme un problème. Pour assurer une optimisation adéquate des sites bien classés sur Google (et d'autres moteurs de recherche), nous devons être conscients de quelques erreurs courantes.
Liens Internes et Externes Brisés
Plus un site web a de pages, plus les chances de liens brisés sont élevées. Lorsqu'un site continue de croître et de produire plus de contenu, un danger de pages 404 non détectées existe. Bien qu'il soit bon de développer et d'ajouter de nouvelles fonctionnalités et pages de destination, nous devons toujours faire attention aux problèmes avec les liens internes et externes.
En tant qu'utilisateurs, nous n'aimons pas atterrir sur une page qui ne fonctionne pas, n'est-ce pas ? Cela interrompt notre flux et entraîne souvent un départ immédiat du site web.

Les visiteurs pourraient percevoir la page web comme non digne de confiance. Comme nous le savons, Google est vraiment doué pour identifier la perception des utilisateurs d'un site web/page. Ainsi, si les utilisateurs sont mécontents, par conséquent, les moteurs de recherche seront également mécontents.
De plus, les pages brisées gaspillent un précieux budget de crawl qui pourrait autrement être utilisé à bon escient. Nous ne voulons pas que les bots passent du temps et des ressources sur des pages qui ne sont pas accessibles aux utilisateurs.
La bonne nouvelle est que nous pouvons facilement identifier les liens internes et externes brisés grâce à différents outils SEO. Naturellement, si nous avons un site plus petit avec seulement quelques pages, nous les connaîtrons probablement par cœur et il ne sera pas si difficile de s'assurer que tout fonctionne bien.
Cependant, à mesure que nous développons nos sites, cela devient impossible et inutile à faire manuellement.
Astuce : exécutez des analyses planifiées une fois par semaine ou par mois et si vous identifiez des liens brisés, creusez plus profondément et essayez de les corriger en conséquence.

Contenu Dupliqué
Le contenu dupliqué est l'un des problèmes les plus anciens et les plus courants connus parmi les marketeurs numériques. La principale préoccupation est qu'en fournissant des pages similaires aux moteurs de recherche, y compris Google, ils peuvent avoir du mal à identifier et à classer les bonnes URL.
En conséquence, nous (en tant que SEO) pouvons subir une perte de trafic ou simplement ne pas tirer le plein profit de nos sites web.
En tant que professionnels des moteurs de recherche, nous devons nous assurer que notre contenu est unique. Pour faciliter la vie des moteurs de recherche, nous devons éviter quelques pièges courants.
Souvent, le contenu dupliqué se produit en raison de l'autorisation de différentes versions de la même page d'être disponibles pour les utilisateurs et les bots. Par exemple, avoir les versions http et https d'un site web qui chargent toutes deux sans les redirections appropriées est un problème populaire.
Pour éviter ce problème potentiel, nous devrions avoir les redirections http vers https correctes. Nous pouvons facilement tester cela en tapant http://oursitename.com dans le navigateur. Si notre protocole https est activé et correctement configuré, le navigateur devrait nous rediriger vers https://oursitename.com.

De la même manière, la version sans www d'un site web devrait rediriger vers la version www, si c'est la version principale de notre site web et vice versa.

Les paramètres dans les URL sont un autre piège courant qui provoque des URL dupliquées. Les systèmes de gestion de contenu ajoutent souvent des paramètres de tri (taille, couleur, modèle, etc.) qui peuvent entraîner de nombreuses pages avec le même contenu.

Néanmoins, ce n'est pas quelque chose dont il faut s'inquiéter à condition que nous mettions en œuvre des canoniques appropriés et des attributs no-index si nécessaire.
Note : les balises canoniques sont un moyen populaire de dire à Google quel ensemble d'URL similaires indexer et compter comme le principal. Une autre façon est d'utiliser un attribut no-index lorsque les paramètres provoquent différentes URL avec le même contenu ou un contenu similaire.
Échecs des Balises Title
Les balises title font partie des éléments SEO on-site les plus importants. Elles informent les moteurs de recherche du sujet principal d'une page. Les balises title apparaissent également dans les résultats de recherche en haut de chaque listing organique. Cela en fait l'un des éléments clés et souvent un facteur décisif pour que les utilisateurs cliquent sur un résultat spécifique.
Prendre le temps de les configurer correctement est une tâche SEO cruciale. Cependant, elle est parfois négligée, ce qui entraîne de faibles taux de clics.
Les principaux problèmes avec les balises title sont :
- absence totale des balises title
Dans ce cas, Google définira une balise title basée sur sa compréhension du sujet de notre page. Habituellement, il s'en sort bien avec cette tâche, mais c'est tout de même une opportunité SEO manquée.
Il est bon de définir les balises title nous-mêmes, surtout pour nos pages les plus importantes.
- balises title trop longues/courtes
Utiliser des balises title courtes est une façon manquée d'attirer des utilisateurs potentiels et de les faire cliquer sur nos résultats. La pratique habituelle est d'avoir entre 55 et 65 caractères affichés dans les résultats de recherche.
Inversement, les balises title trop longues (plus de 65 caractères) peuvent être tronquées et ne pas être affichées entièrement. Cela créera une autre opportunité manquée de montrer notre message complet au monde en ligne.

Comme nous pouvons le voir ici, le titre et la méta description sont tronqués et ne fournissent donc pas la meilleure expérience utilisateur.
- balises title dupliquées
C'est une pratique courante pour les sites e-commerce d'avoir des balises identiques. C'est souvent le cas avec d'autres types de sites aussi, malheureusement. Les balises title dupliquées rendent plus difficile pour les pages web de se démarquer et se différencier des autres pages similaires.

Problèmes de Robots.txt
Le Robots.txt est un outil relativement simple mais utile donnant des informations et des instructions importantes aux crawlers des moteurs de recherche. Il est situé dans le répertoire racine des sites web et utilise le format texte brut.
Il peut empêcher certaines sections de notre site web d'être crawlées, afin que les bots n'aient pas à gaspiller de précieuses ressources. Cependant, il y a quelques erreurs potentielles dont nous devons être conscients.
Accorder l'Accès aux Sites de Staging et Dev ou aux Panneaux d'Admin
Il existe plusieurs façons d'empêcher les moteurs de recherche d'atteindre les versions de test et en cours de développement de votre domaine. L'une des façons est d'utiliser une commande dans votre fichier robots.txt, bien qu'il existe des moyens plus efficaces de le faire (par ex. authentification HTTP).
L'une des instructions de blocage les plus courantes pour les sites WP est d'exclure le dossier du panneau wp-admin. Voici à quoi cela ressemble :
User-agent: * Disallow: /wp-admin/
User-agent: * signifie que l'instruction s'applique à tous les bots (Google bot, Bing bot, etc.) et la deuxième ligne nous indique que nous voulons les empêcher de crawler le dossier /wp-admin/ et tout ce qui s'y trouve.
Bloquer des URL Importantes du Crawl
Comme la commande précédente, nous ne voulons pas interdire à des dossiers importants de notre site web d'être accessibles aux bots. Par exemple, une erreur courante pourrait être :
User-agent: * Disallow: /example-important-directory/
Ou parfois nous pouvons même avoir ceci :
User-agent: * Disallow: /
ce qui signifie essentiellement interdire l'ensemble du site web à tous les bots. Ceci est généralement utilisé avant "l'ouverture" du site web au monde lors des tests initiaux. Cependant, parfois cela est négligé et les DEVs ou SEOs oublient de le supprimer lorsque le site web est disponible au public, y compris aux moteurs de recherche et aux utilisateurs.
Ne Pas Inclure de Lien vers le Fichier Sitemap
Le Robots.txt est un excellent moyen de faciliter aux moteurs de recherche la recherche du fichier sitemap d'un site web. Bien que ce ne soit pas une énorme erreur si nous l'oublions (surtout pour les petits sites), c'est tout de même une chose rapide et utile à faire.

Désastres avec les Balises Meta Robots
Meta robots est l'une des balises et directives les plus importantes dans son ensemble en matière de SEO. C'est un moyen efficace pour les propriétaires de sites d'informer les moteurs de recherche qu'une certaine page ne doit pas être suivie ou indexée.
Il existe différents cas d'utilisation et configurations, mais le plus populaire (et souvent dangereux) est la balise noindex. Elle "vit" dans la section head du HTML et ressemble à ceci :
<meta name="robots" content="noindex,follow" />
En gros, cela signifie que nous décourageons les moteurs de recherche d'indexer notre contenu dans les résultats de recherche, mais nous aimerions qu'ils suivent les liens sur cette page. Nous pouvons résoudre divers problèmes potentiels en empêchant les moteurs de recherche d'indexer le contenu. Par exemple :
- pages avec un contenu mince qui n'apporte aucune valeur réelle pour les utilisateurs- pages de checkout sur les sites eCommerce- URL contenant des informations sensibles- pages dev/staging non prêtes à être lancées au public
Le problème le plus courant qui se produit avec la commande noindex est d'oublier de la supprimer pour une page importante (ou tout le site web) lorsqu'elle est prête à être officiellement lancée dans le monde en ligne. Disons que les DEVs y travaillent depuis longtemps, testant diverses choses, puis quelqu'un oublie simplement de la supprimer une fois qu'elle a été lancée.
Sans aucun doute, c'est l'une des premières (et plus simples) vérifications à faire si vous vous demandez pourquoi un certain site web ou une section spécifique n'apporte aucun trafic organique.
Vous avez juste besoin d'ouvrir le code source et de chercher (ctrl+f) la commande "robots". Si vous remarquez la directive "no index" alors vous avez un problème ! La bonne nouvelle cependant est que vous connaissez maintenant la raison et comment la résoudre facilement.

Les Canoniques Mal Utilisés
La balise canonique est une arme puissante dans l'arsenal des SEOs. Elle est souvent utilisée pour éviter les problèmes SEO potentiels avec un contenu similaire existant sur différentes URL.
Par exemple, c'est très courant dans les e-commerces avec différents paramètres dans les pages qui pourraient potentiellement causer des problèmes de contenu dupliqué.
Avec le canonique, nous indiquons simplement aux moteurs de recherche quelle est la page "principale" / "originale", afin que toutes les autres versions ne créent pas de problèmes. De plus, Google saura quelle page prioriser et afficher dans les résultats de recherche.
Il y a quelques problèmes qui peuvent survenir ici. L'un d'eux, comme déjà mentionné, est de ne pas avoir de canonique défini lorsque vous avez différentes URL avec le même contenu.

Si le canonique est défini, voici les dangers les plus courants à connaître :
- l'URL canonique pointe vers une URL avec balise noindex- l'URL canonique pointe vers une URL retournant un code de statut 4xx ou 5xx- l'URL canonique pointe vers la version http non sécurisée d'une page (alors que nous avons aussi la version sécurisée disponible)- canonique non auto-référencé (l'URL dite canocalisée)
Note : cela peut convenir si c'est intentionnel, bien que dans la plupart des cas, nous voudrions des canoniques auto-référencés
- la balise canonique est vide ou pointe vers une page invalide
Problèmes de Hreflang
Les hreflangs sont des références hyperlien dans le code HTML d'une page qui nous permettent de spécifier les URL alternatives assignées à une certaine langue ou région. Ils sont particulièrement importants pour les sites web opérant dans différents pays et servant du contenu en différentes langues.

L'idée principale derrière les références hreflang est de s'assurer que nous montrons la version correcte du site web selon les utilisateurs et leur pays/langue.
Par exemple, pour les visiteurs espagnols, nous voulons fournir la version /es d'un site web/page, pour les visiteurs allemands, ce devrait être /de, et ainsi de suite.
Essentiellement, nous informons Google quelle page et dans quelle langue elle doit être affichée aux utilisateurs, en fonction de leurs paramètres de langue et de leur emplacement.
Les annotations hreflang ressemblent à ceci :
<link rel="alternate" href="https://www.example.com/es/" hreflang="es" />
Les problèmes de hreflang les plus courants incluent :
- absence d'un lien retour
Les URL alternatives doivent avoir le même code que la page qui contient les URL hreflang alternatives. Lors de l'utilisation d'une balise hreflang et que la page X est liée à la page Y, la page Y doit être liée à la page X. Essentiellement, chaque ligne de code hreflang faisant référence à une autre page doit avoir le même code sur chaque page à laquelle elle est ajoutée.
- la langue détectée ne correspond pas à la langue spécifiée
Parfois, la langue spécifiée dans les balises hreflang diffère du contenu réel de la page
- mauvais codes ISO
Une erreur populaire est d'utiliser "en-UK" au lieu de "en-GB" lorsque l'on cible les visiteurs anglophones au Royaume-Uni. La syntaxe est très importante aussi. Même si de nombreux sites web utilisent des underscores pour spécifier les langues dans leurs URL, seuls les tirets fonctionnent pour les hreflangs.
- absence d'une balise auto-référencée
L'ajout d'une balise hreflang auto-référencée est indispensable pour s'assurer que les sites internationaux sont correctement configurés et faciles à comprendre par les moteurs de recherche.
- utilisation d'URL relatives au lieu d'absolues
Une autre erreur courante avec les hreflangs. Nous devons éviter les adresses relatives qui ne fournissent qu'un chemin et toujours opter pour le chemin complet de la page.
Correct :
<link rel="alternate" href="https://www.example.com/es/spanish-post" hreflang="es" />
Incorrect :
<link rel="alternate" href="es/spanish-post" hreflang="es" />
Voici un outil utile pour identifier les problèmes de hreflang - https://technicalseo.com/tools/hreflang/
Dangers du JavaScript
Bien que Google confirme que JavaScript peut être utilisé sans causer de problèmes SEO, nous devons être prudents avec lui. Souvent, les développeurs utilisent JS pour charger du contenu et des liens importants, ce qui peut nous mettre dans une situation où les moteurs de recherche ne peuvent pas crawler et comprendre correctement le contenu.
Par conséquent, il est recommandé de passer du temps supplémentaire à inspecter nos sites web pour voir si toutes les informations importantes s'affichent correctement.
Par exemple, une mauvaise implémentation JS pourrait entraîner que Google ne lit pas les méta titres et descriptions que nous avons définis, ce qui crée alors des problèmes avec notre CTR dans les résultats de recherche.

C'est pourquoi il est crucialement important d'être conscient de l'interprétation de Google de notre contenu JavaScript et s'ils sont capables de crawler et indexer correctement les informations.
Problèmes d'Utilisabilité Mobile
Cela ne surprendra probablement personne si nous disons que l'utilisabilité et les performances mobiles d'un site web sont deux des facteurs SEO les plus importants de nos jours.
Cela fait quelques années que Google est passé à l'indexation mobile-first et prend en compte la version mobile d'une page web en priorité.
L'un des principaux problèmes que l'on voyait plus souvent à l'époque était de montrer un contenu différent aux utilisateurs desktop et mobile. C'est une pratique très dangereuse et pourrait entraîner des résultats organiques inférieurs.
Certains des principaux facteurs qui pourraient affecter les performances du site web incluent :
- un grand nombre de plugins
Essayez d'éviter d'installer un grand nombre de plugins. Plus vous avez de plugins, plus votre site web devient lourd et maladroit.
De plus, les plugins sont un point d'entrée potentiel pour les hackers (lorsqu'ils ne sont pas mis à jour à temps), donc ils pourraient également présenter un risque de sécurité.
- images non optimisées
Les images sont l'un des facteurs les plus courants qui affectent la vitesse des pages et les performances globales d'un site web. Personne n'aime les sites web qui se chargent lentement, donc nous recommandons toujours d'essayer de garder les images moins de 100 ko en taille.

- services d'hébergement
Tenez compte du fait que le serveur sur lequel vous hébergez votre site web est la base sur laquelle tout sera construit. Par conséquent, il est préférable de ne pas opter pour la solution la moins chère et de vous épargner des problèmes à l'avenir. Cela vaut la peine d'investir un peu plus mais en sachant qu'en retour vous obtiendrez un service d'hébergement fiable, sécurisé et rapide.
Pour Résumer
Comme nous avons déjà pu le voir, il existe de nombreuses façons de se tromper en matière de SEO. Il convient également de noter que ce ne sont là que quelques-uns des problèmes techniques SEO les plus populaires et les plus courants que nous pourrions rencontrer. Il y a beaucoup plus de cauchemars SEO qui pourraient se produire.
Espérons que nous vous avons aidé jusqu'à présent à mieux comprendre les principaux problèmes SEO et ce qui est encore plus important - comment les éviter ou les corriger.
Bonne chance !
Auteur : Ognian Mikov

Le SEO est entré dans ma vie en 2012, et depuis, c'est une véritable histoire d'amour. Pour moi, c'est bien plus qu'un simple métier : c'est à la fois une passion et un loisir qui me donne envie de continuer à apprendre et à progresser. Que je sois en train d'explorer de nouveaux sujets, de créer du contenu ou de plonger dans des optimisations techniques, je reste fasciné par l'immensité du marketing digital et par toutes les opportunités qu'il offre pour booster les performances d'un site web.
En 2021, j'ai rejoint SEO Alive et SEOcrawl — ma toute première entreprise en télétravail — où j'ai pu développer de nouvelles compétences et travailler sur des projets passionnants. Plus important encore, j'ai eu la chance de rencontrer des collègues formidables et d'apprendre à leurs côtés ; beaucoup sont aussi devenus des amis.
Je suis titulaire d'une licence en Marketing et d'un master en Relations Publiques et Publicité. Pendant mon temps libre, j'aime passer du temps avec ma fille, jouer et regarder des parties d'échecs, de football (Само Левски & Més que un club) et de poker.
Découvrez plus de contenu de cet auteur

