Top 9 Problemas de SEO e Como Evitá-los ou Corrigi-los

Top 9 Problemas de SEO e Como Evitá-los ou Corrigi-los
Ognian Mikov
Tutoriais SEO
15 min read

SEO é uma disciplina complexa que requer cuidadosa consideração de vários fatores e procedimentos para ser implementada corretamente. Existem diferentes formas de errar e prejudicar o potencial orgânico de um site.

Neste post, vamos abordar os problemas de SEO mais comuns e como evitar ser vítima deles. Da mesma forma, se você já está lutando com tais problemas, podemos ajudá-lo a corrigi-los com sucesso.

Primeiro, vamos começar com o básico.

O Que São Problemas de SEO?

Um potencial problema de SEO que poderia prejudicar o desempenho dos nossos sites nos motores de busca, poderia ser identificado como um problema. Para garantir uma otimização adequada de sites que ranqueiam alto no Google (e em outros motores de busca), devemos estar cientes de alguns erros comuns.

Quanto mais páginas um site tem, maiores são as chances de links quebrados. Quando um site continua crescendo e produzindo mais conteúdo, existe um perigo de páginas 404 não percebidas. Embora seja bom desenvolver e adicionar novos recursos e landing pages, temos que sempre prestar atenção a problemas com links internos e externos.

Nós, como usuários, não gostamos de chegar a uma página que não funciona, certo? Isso interrompe nosso fluxo e muitas vezes resulta em sair do site imediatamente.

página não encontrada 404
página não encontrada 404

Os visitantes podem perceber a página como não confiável. Como sabemos, o Google é muito bom em identificar as percepções dos usuários sobre um site/página. Assim, se os usuários estão insatisfeitos, consequentemente os motores de busca também ficarão insatisfeitos.

Além disso, páginas quebradas desperdiçam preciosos crawl budgets que poderiam ser usados de forma proveitosa. Não queremos que os bots gastem tempo e recursos em páginas que não estão acessíveis para os usuários.

A boa notícia é que podemos identificar facilmente links internos e externos quebrados graças a diferentes ferramentas de SEO. Naturalmente, se temos um site menor com apenas algumas páginas, provavelmente as conheceremos de cor e não será tão difícil garantir que tudo está funcionando bem.

No entanto, à medida que desenvolvemos nossos sites, torna-se impossível e desnecessário fazer isso manualmente.

Dica: execute varreduras programadas uma vez por semana ou mês e, se você identificar quaisquer links quebrados, investigue mais a fundo e tente corrigi-los adequadamente.

Ferramenta SEOcrawl como os crawlers analisam uma página em busca de problemas de SEO
Ferramenta SEOcrawl como os crawlers analisam uma página em busca de problemas de SEO

Conteúdo Duplicado

O conteúdo duplicado é um dos problemas mais antigos e comuns conhecidos entre os profissionais de marketing digital. A principal preocupação é que, ao fornecer páginas similares aos motores de busca, incluindo o Google, eles podem ter dificuldade em identificar e ranquear as URLs corretas.

Como resultado, nós (como SEOs) podemos sofrer perda de tráfego ou simplesmente não obter o benefício total dos nossos sites.

Nós, como profissionais de motores de busca, precisamos garantir que nosso conteúdo seja único. Para facilitar a vida dos motores de busca, devemos evitar algumas armadilhas comuns.

Frequentemente o conteúdo duplicado ocorre devido a permitir que diferentes versões da mesma página estejam disponíveis para usuários e bots. Por exemplo, ter tanto a versão http quanto a https de um site carregando sem os redirecionamentos adequados é um problema popular.

Para evitar esse possível problema, precisaríamos ter os redirecionamentos corretos de http para https configurados. Podemos testar isso facilmente digitando http://nossosite.com no navegador. Caso nosso protocolo https esteja habilitado e configurado corretamente, o navegador deve nos redirecionar para https://nossosite.com.

um exemplo de um site que não habilitou o redirecionamento da versão http insegura para a https
um exemplo de um site que não habilitou o redirecionamento da versão http insegura para a https

Da mesma forma, a versão sem www de um site deve redirecionar para a versão com www, se essa for a versão principal do nosso site, e vice-versa.

redirecionamento de versão sem www para com www de um site para chess.com
redirecionamento de versão sem www para com www de um site para chess.com

Parâmetros em URLs são outra armadilha comum que causa URLs duplicadas. Os sistemas de gerenciamento de conteúdo frequentemente adicionam parâmetros de ordenação (por tamanho, cor, modelo, etc.) que poderiam resultar em ter inúmeras páginas com o mesmo conteúdo.

exemplo de parâmetros em URL da Amazon
exemplo de parâmetros em URL da Amazon

Ainda assim, isso não é algo com que se preocupar desde que implementemos canonicals adequados e atributos no-index quando necessário.

Nota: as tags canonical são uma forma popular de dizer ao Google qual conjunto de URLs similares indexar e contar como a principal. Outra forma é usar um atributo no-index quando os parâmetros causam URLs diferentes com o mesmo conteúdo ou com conteúdo similar.

Falhas em Tags de Título

As tags de título estão entre os elementos mais importantes do SEO on-site. Elas informam aos motores de busca qual é o principal tema de uma página. As tags de título também aparecem nos resultados de busca em cima de cada listagem orgânica. Isso as torna um dos elementos-chave e frequentemente um fator decisivo para os usuários clicarem em um resultado específico.

Dedicar tempo para configurá-las corretamente é uma tarefa de SEO crucial. No entanto, às vezes ela é negligenciada, o que resulta em baixas taxas de cliques.

Os principais problemas com as tags de título são:

  • ausência total das tags de título

Neste caso, o Google definirá uma tag de título com base em sua compreensão do que é a nossa página. Geralmente, ele lida bem com essa tarefa, mas ainda assim, é uma oportunidade de SEO perdida.

É bom definir as tags de título nós mesmos, especialmente para nossas páginas mais importantes.

  • tags de título muito longas/curtas

Usar tags de título curtas é uma forma perdida de atrair potenciais usuários e fazer com que cliquem nos nossos resultados. A prática usual é ter entre 55-65 caracteres mostrados nos resultados de busca.

Por outro lado, tags de título que são muito longas (acima de 65 caracteres), podem ser truncadas e não exibidas por completo. Isso criará outra oportunidade perdida de mostrar nossa mensagem completa para o mundo online.

título e descrição truncados nos resultados de busca do Google
título e descrição truncados nos resultados de busca do Google

Como podemos ver aqui, tanto o título quanto a meta description estão truncados e, portanto, não fornecem a melhor experiência do usuário.

  • tags de título duplicadas

É uma prática comum em sites de e-commerce ter tags idênticas. Esse é frequentemente o caso de outros tipos de sites também, infelizmente. Tags de título duplicadas tornam mais difícil para as páginas web se destacarem e diferenciarem de outras páginas similares.

Recurso do Screaming Frog para encontrar tags de título duplicadas
Recurso do Screaming Frog para encontrar tags de título duplicadas

Problemas com Robots.txt

O Robots.txt é uma ferramenta relativamente simples mas útil que dá informações e instruções importantes aos crawlers dos motores de busca. Está localizado no diretório raiz dos sites e usa formato de texto plano.

Ele pode impedir que certas seções do nosso site sejam rastreadas, para que os bots não tenham que desperdiçar recursos preciosos. No entanto, existem alguns erros potenciais dos quais devemos estar cientes.

Conceder Acesso a Sites de Staging e Dev ou Painéis Admin

Existem várias formas de impedir que os motores de busca alcancem qualquer versão de teste ou em desenvolvimento do seu domínio. Uma das formas é usar um comando no seu arquivo robots.txt, embora existam formas mais eficazes de fazê-lo (ex. autenticação HTTP).

Uma das instruções de bloqueio mais comuns para sites WP é excluir a pasta do painel wp-admin. É assim que se parece:

User-agent: * Disallow: /wp-admin/

User-agent: * significa que a instrução se aplica a todos os bots (Google bot, Bing bot, etc.) e a segunda linha diz que queremos impedi-los de rastrear a pasta /wp-admin/ e tudo o que estiver nela.

Bloquear URLs Importantes do Rastreamento

Similar ao comando anterior, não queremos disallow de nenhuma pasta importante no nosso site para impedir o acesso pelos bots. Por exemplo, um erro comum poderia ser:

User-agent: * Disallow: /diretorio-importante-exemplo/

Ou, às vezes, podemos até ter isto:

User-agent: * Disallow: /

o que basicamente significa disallow de todo o site para todos os bots. Isso é geralmente usado antes de "abrir" o site para o mundo durante testes iniciais. No entanto, às vezes ele é negligenciado e DEVs ou SEOs esquecem de removê-lo quando o site fica disponível ao público, incluindo motores de busca e usuários.

O Robots.txt é uma ótima forma de facilitar para os motores de busca encontrarem o arquivo sitemap de um site. Embora não seja um erro enorme se o omitirmos (especialmente para sites menores), ainda é uma coisa rápida e útil de fazer.

Endereço do arquivo Sitemap incluído no arquivo robots.txt
Endereço do arquivo Sitemap incluído no arquivo robots.txt

Desastres com Tag Meta Robots

A meta robots é uma das tags e diretrizes mais importantes como um todo quando se trata de SEO. É uma forma eficaz para os proprietários de sites informarem aos motores de busca que uma certa página não deve ser seguida ou indexada.

Existem vários casos de uso e configurações, mas o mais popular (e frequentemente perigoso) é a tag noindex. Ela "vive" na seção head do HTML e se parece com isto:

<meta name="robots" content="noindex,follow" />

Basicamente, isso significa que desencorajamos os motores de busca a indexar nosso conteúdo nos resultados de busca, mas gostaríamos que eles seguissem os links nessa página. Podemos resolver vários problemas potenciais ao impedir que os motores de busca indexem conteúdo. Por exemplo:

  • páginas com conteúdo raso que não fornecem nenhum valor real para os usuários- páginas de checkout em sites de eCommerce- URLs contendo informações sensíveis- páginas de dev/staging não prontas para serem lançadas ao público

O problema mais comum que acontece com o comando noindex é esquecer de removê-lo para uma página importante (ou para o site inteiro) quando ele estiver pronto para ser oficialmente lançado para o mundo online. Digamos que os DEVs estiveram trabalhando nele por muito tempo, testando várias coisas, e então alguém simplesmente esquece de removê-lo uma vez que foi lançado.

Sem dúvida, esta é uma das primeiras (e mais simples) verificações a fazer se você se pergunta por que um certo site ou seção específica não está trazendo nenhum tráfego orgânico.

Você só precisa abrir o código fonte e procurar (ctrl+f) pelo comando "robots". Se você notar a diretiva "no index" então você está em apuros! A boa notícia é que agora você sabe a razão e como corrigi-la facilmente.

meta robots noindex no código fonte
meta robots noindex no código fonte

Canonicals Que Dão Errado

A tag canonical é uma arma poderosa no arsenal dos SEOs. Ela é frequentemente usada para evitar potenciais problemas de SEO com conteúdo similar existente em URLs diferentes.

Por exemplo, é muito comum em magazines de E-commerce com diferentes parâmetros nas páginas, o que poderia potencialmente causar problemas de conteúdo duplicado.

Com a canonical, simplesmente dizemos aos motores de busca qual é a página "principal" / "original", para que todas as outras versões não criem problemas. Além disso, o Google saberá qual página priorizar e mostrar nos resultados de busca.

Existem alguns problemas que podem ocorrer aqui. Um deles, como já mencionado, é não ter um canonical definido quando você tem URLs diferentes com o mesmo conteúdo.

canonical ausente reportado pelo crawler do SEOcrawl
canonical ausente reportado pelo crawler do SEOcrawl

Caso o canonical esteja definido, aqui estão os perigos mais comuns dos quais devemos estar cientes:

  • a URL canonical aponta para uma URL com tag noindex- a URL canonical aponta para uma URL que está retornando um código de status 4xx ou 5xx- a URL canonical aponta para a versão http não segura de uma página (quando também temos a versão segura disponível)- canonical sem auto-referência (a chamada URL canonicalizada)

Nota: isto poderia estar bem caso seja intencional, embora na maioria dos casos queiramos canonicals com auto-referência

  • a tag canonical está vazia ou aponta para uma página inválida

Problemas com Hreflang

Os Hreflangs são referências de hyperlink no código HTML de uma página que nos permitem especificar as URLs alternativas atribuídas a um certo idioma ou região. Eles são especialmente importantes para sites que operam em diferentes países e servem conteúdo em diferentes idiomas.

Ferramenta SEOcrawler mostra inspeção e insights de hreflang para o domínio seoalive.com
Ferramenta SEOcrawler mostra inspeção e insights de hreflang para o domínio seoalive.com

A ideia principal por trás das referências hreflang é garantir que mostremos a versão correta do site de acordo com os usuários e seu país/idioma.

Por exemplo, para os visitantes espanhóis, queremos fornecer a versão /es de um site/página, para os visitantes alemães, deve ser /de, e assim por diante.

Essencialmente, estamos informando ao Google qual página e em qual idioma deve ser mostrada aos usuários, dependendo de suas configurações de idioma e localização.

As anotações hreflang se parecem com isto:

<link rel="alternate" href="https://www.example.com/es/" hreflang="es" />

Os problemas mais comuns com hreflang incluem:

  • ausência de um link de retorno

URLs alternativas devem ter o mesmo código que a página que contém URLs hreflang alternativas. Ao usar uma tag hreflang e a página X linka para a página Y, a página Y deve linkar de volta para a página X. Basicamente, cada linha de código hreflang referenciando outra página deve ter o mesmo código em cada página em que é adicionada.

  • idioma detectado não corresponde ao idioma especificado

Às vezes o idioma especificado nas tags hreflang difere do conteúdo real da página

  • códigos ISO errados

Um erro popular é usar "en-UK" em vez de "en-GB" ao mirar visitantes que falam inglês no Reino Unido. A sintaxe é muito importante também. Embora muitos sites usem underscores para especificar idiomas em suas URLs, apenas hífens funcionam para hreflangs.

  • ausência de uma tag de auto-referência

Adicionar uma tag hreflang com auto-referência é obrigatório para garantir que sites internacionais estejam configurados corretamente e sejam fáceis de entender pelos motores de busca.

  • usar URLs relativas em vez de absolutas

Outro erro comum com hreflangs. Devemos evitar endereços relativos que fornecem apenas um caminho e sempre optar pelo caminho completo da página.

Correto:

<link rel="alternate" href="https://www.example.com/es/spanish-post" hreflang="es" />

Incorreto:

<link rel="alternate" href="es/spanish-post" hreflang="es" />

Aqui está uma ferramenta útil para identificar problemas de hreflang- https://technicalseo.com/tools/hreflang/

Perigos do JavaScript

Embora o Google confirme que o JavaScript pode ser usado sem causar nenhum problema de SEO, devemos ter cuidado com ele. Frequentemente, os desenvolvedores usam JS para carregar conteúdo e links importantes, e isso pode nos colocar em uma situação em que os motores de busca são incapazes de rastrear e entender o conteúdo corretamente.

Portanto, é recomendável dedicar tempo extra e inspecionar nossos sites para ver se todas as informações importantes estão sendo exibidas corretamente.

Por exemplo, uma má implementação de JS poderia resultar no Google não ler os meta titles e descriptions que configuramos, o que então cria problemas com nosso CTR nos resultados de busca.

O crawler do SEOcrawl reporta uma tag de título ausente de uma página
O crawler do SEOcrawl reporta uma tag de título ausente de uma página

Por isso é crucialmente importante estar ciente da interpretação do Google sobre nosso conteúdo JavaScript e se eles são capazes de rastrear e indexar adequadamente as informações.

Problemas de Usabilidade Mobile

Provavelmente não surpreenderá ninguém se dissermos que a usabilidade mobile e o desempenho de um site são dois dos fatores de SEO mais importantes atualmente.

Já se passaram alguns anos desde que o Google mudou para o mobile-first indexing e levando em conta a versão mobile de uma página com prioridade.

Um dos principais problemas que era visto com mais frequência no passado, era mostrar conteúdo diferente para usuários desktop e mobile. Esta é uma prática muito perigosa e poderia resultar em resultados orgânicos menores.

Alguns dos principais fatores que poderiam afetar o desempenho do site incluem:

  • um grande número de plugins

Tente ficar longe de instalar um grande número de plugins. Quanto mais plugins você tem, mais pesado e desajeitado seu site se torna.

Além disso, os plugins são o ponto de entrada potencial para hackers (quando não são atualizados a tempo), então eles também podem apresentar um risco de segurança.

  • imagens não otimizadas

As imagens são um dos fatores mais comuns que afetam a velocidade das páginas e o desempenho geral de um site. Ninguém gosta de sites que carregam lentamente, então sempre recomendamos tentar manter as imagens com menos de 100 kb de tamanho.

Ferramenta Page Speed Insights do Google com recomendações para dimensionar adequadamente as imagens
Ferramenta Page Speed Insights do Google com recomendações para dimensionar adequadamente as imagens

  • serviços de hospedagem

Leve em consideração que o servidor onde você hospeda seu site é a base sobre a qual tudo será construído. Portanto, é melhor não optar pela solução mais barata e poupar problemas no futuro. Vale a pena investir um pouco mais mas saber que em troca você obterá um serviço de hospedagem confiável, seguro e rápido.

Para Resumir

Como já podemos ter visto, existem inúmeras formas de errar quando se trata de SEO. Também vale notar que estes são apenas alguns dos problemas técnicos de SEO mais populares e comuns que podemos encontrar. Existem muitos mais pesadelos de SEO que poderiam acontecer.

Esperamos ter ajudado você até agora a ter uma melhor ideia e compreensão dos principais problemas de SEO e o que é ainda mais importante - como evitá-los ou corrigi-los.

Boa sorte!

Autor: Ognian Mikov

Ognian Mikov

O SEO entrou na minha vida em 2012 e, desde então, sou completamente apaixonado por ele. Para mim é muito mais do que um trabalho: é, ao mesmo tempo, uma paixão e um hobby que me mantém motivado para continuar a aprender e a melhorar. Seja a investigar novos temas, a criar conteúdos ou a mergulhar em ajustes técnicos, fascina-me sempre o vasto mundo do marketing digital e as inúmeras oportunidades que existem para melhorar o desempenho de um site.

Em 2021 juntei-me à SEO Alive e à SEOcrawl — a minha primeira empresa em regime remoto — onde tenho podido desenvolver novas competências e trabalhar em projetos entusiasmantes. E, acima de tudo, tive a oportunidade de conhecer colegas incríveis e aprender com eles; muitos tornaram-se também amigos.

Sou licenciado em Marketing e tenho um mestrado em Relações Públicas e Publicidade. Nos tempos livres, gosto de estar com a minha filha e também de jogar e ver xadrez, futebol (Само Левски & Més que un club) e póquer.

→ Ler todos os artigos de Ognian
Mais artigos de Ognian Mikov

Descubra mais conteúdos deste autor