Prompt Tracking
Meça e otimize a visibilidade da sua marca no ChatGPT e na IA.
Claude
Monitore como o Claude menciona a sua marca e os concorrentes.
Soon
AI Tracker
Meça o impacto real da IA no seu SEO.
Gemini
Descubra como o Gemini posiciona a sua marca frente aos concorrentes.
Soon
ChatGPT
Monitore como o ChatGPT menciona a sua marca.
Soon
Perplexity
Analise a visibilidade da sua marca no Perplexity AI.
Soon
PreçosDemo

robots.txt: guia completo de configuração

robots.txt: guia completo de configuração
David Kaufmann
Tutoriais SEO
6 min read

Cansado de ouvir falar de robots.txt sem saber do que as pessoas estão falando? Não se preocupe, hoje trazemos a solução para o seu problema. Neste post faremos o nosso melhor para explicar o que é o robots.txt, como configurá-lo (especialmente no WordPress) e qual impacto pode ter no SEO do nosso projeto.

Vamos lá!

O que é robots.txt e para que serve?

O robots.txt é simplesmente um arquivo hospedado na raiz do seu site que permite impedir que determinados bots (como os do Google ou Bing) visitem seu site ou partes dele.

ATENÇÃO: é importante saber que isso é um protocolo e como regra geral todos os bots „bons" o respeitam (GoogleBot, BingBot, Semrush, ...) mas qualquer bot mal-intencionado pode ignorá-lo, como o Screaming Frog marcando esta opção:

ignorar robots.txt no Screaming Frog
ignorar robots.txt no Screaming Frog

Por que o arquivo robots.txt é importante para o SEO?

Como mencionamos antes, todos os bots bons (como o GoogleBot) seguem este protocolo, então o que podemos fazer é usar este arquivo para guiar o Google pelo nosso site.

Como assim? O que você quer dizer? Guiar o Google com o robots.txt?

Sim, não se preocupe, vamos explicar com um exemplo para ficar bem mais claro:

Imagine que no seu site você tem uma área privada que apenas usuários registrados podem acessar, e como bem sabemos, o Google não consegue acessar nenhum site que exija login (ainda...).

Então, não faria sentido que o Google não desperdiçasse nosso crawl budget rastreando páginas que não têm valor para ele?

Exato! Um dos usos mais importantes do robots.txt é bloquear caminhos que têm pouco valor para o Google e, assim, fazer com que ele se concentre nas páginas importantes do nosso site. Por isso, o robots.txt deve ser um dos pilares a manter em mente na nossa estratégia de SEO.

Este é apenas um exemplo entre os milhares de coisas que podemos fazer com este arquivo. Outros exemplos incluem indicar nosso sitemap, reduzir o intervalo de rastreamento, bloquear o rastreamento de recursos, ...

Como criar o arquivo robots.txt

Bem... mãos à obra!

Criar este arquivo é realmente simples: basta pegar seu editor de texto (Bloco de Notas no Windows ou TextEdit no Mac) ou usar um online e depois de redigir seu robots.txt, exportá-lo como arquivo txt.

Quando o tivermos, basta nomeá-lo „robots.txt" e enviá-lo à raiz do seu site através do painel do servidor ou via FTP.

Para verificar se foi enviado corretamente, basta adicionar „/robots.txt" ao seu domínio, por exemplo https://seocrawl.com/robots.txt

ATENÇÃO: Cuidado com o cache, é melhor visualizá-lo em modo anônimo ;)

E se eu tiver WordPress?

Se você tem WordPress é mais simples porque os melhores plugins de SEO como Rank Math ou Yoast vêm com um add-on integrado para editar o robots.txt diretamente.

No caso do Rank Math você vai encontrá-lo em Rank Math > General Settings > Edit robots.txt

Robots TXT no WordPress
Robots TXT no WordPress

No caso do Yoast precisaremos ir em SEO > Tools > File Editor

Assim você pode facilmente editar ou criar o arquivo sem precisar realizar nenhuma das etapas explicadas acima.

Comandos

A seguir, vamos dar uma olhada em muitos dos comandos disponíveis junto com seus exemplos correspondentes:

Bloquear o rastreamento do seu site

User-agent: * Disallow: /

NOTA: Se você está desenvolvendo seu site e não quer que nenhum bot entre, leia e indexe seu conteúdo, esta regra funciona muito bem.

Bloquear o rastreamento de uma página

User-agent: * Disallow: /url-da-pagina-que-nao-quero-rastrear

Bloquear o rastreamento de uma pasta

User-agent: * Disallow: /pasta/

Permitir acesso a uma página

User-agent: * Allow: /pagina

Bloquear uma pasta e permitir uma página dessa pasta

User-agent: * Disallow: /pasta/ Allow: /pasta/pagina

Indicar o sitemap

Sitemap: https://domain.com/sitemap.xml

Dar ordens a bots específicos

Neste caso vamos nos deter um pouco mais. Se você reparou, a maioria das diretivas anteriores começava com:

User-agent: *

Esse „*" se refere a todos os bots. Ou seja, todas as diretivas após essa linha aplicam-se a todos os bots. Se queremos enviar ordens específicas a determinados bots, precisamos alterar isso da seguinte forma:

User-agent: Googlebot Se queremos nos referir ao bot do Google

User-agent: Bingbot Se queremos nos referir ao bot do Bing

User-agent: DuckDuckBot Se queremos nos referir ao bot do DuckDuckGo

Tudo o que você precisa fazer é descobrir o nome do bot ao qual quer enviar uma ordem e nomeá-lo como acabamos de mostrar.

Revisar e testar o arquivo robots.txt

Agora que você terminou de „tunar" seu robots para deixá-lo totalmente otimizado e personalizado para seu site, só falta testá-lo.

Testar? Para quê?

Bem, testar para garantir que não erramos em nenhuma linha e que está funcionando de verdade para bloquear as partes do site que queremos bloquear.

Para isso recomendamos usar esta ferramenta.

Ferramenta para verificar robots txt
Ferramenta para verificar robots txt

Uma vez dentro basta:

  • Inserir a URL para a qual você quer verificar se o rastreamento é permitido

  • Escolher o User Agent

  • Clicar em TEST

Imediatamente depois, todo o nosso arquivo robots.txt será carregado e abaixo nos dirá se o acesso é permitido ou não.

Resultado teste robots.txt
Resultado teste robots.txt

Neste caso, como podemos ver, dá-nos um resultado positivo, mas se inseríssemos uma URL não permitida, também destacaria a linha que a bloqueia:

Exemplo URL bloqueada por robots.txt
Exemplo URL bloqueada por robots.txt

Além disso, esta ferramenta nos permite editar nosso arquivo robots.txt diretamente dali para fazer as modificações que precisarmos para que o resultado corresponda ao nosso objetivo. Uma vez modificado e testado, basta aplicar essas novas modificações ao nosso robots.

Dica bônus: torne seu robots.txt inesquecível

Mostramos uma tonelada de linhas de código que funcionam para bots, mas você também pode inserir comentários iniciando a linha com „#". Ou seja, tudo o que começar com „#" será ignorado pelos bots. Isso abre um mundo de possibilidades e piadas internas. Por isso encorajamos você a dar uma olhada no robots.txt de windupschool, pccomponentes ou Minube, com certeza encontrará uma surpresa.

Minube Robots TXT
Minube Robots TXT

Conclusão

Como você viu, o arquivo robots.txt tem muito a oferecer e também requer muito cuidado porque uma diretiva mal colocada pode bloquear o rastreamento do seu site.

Esperamos que este guia seja útil para você e, para qualquer dúvida, nos vemos nos comentários.

Autor: David Kaufmann

David Kaufmann

Passei os últimos 10 e tantos anos completamente obcecado por SEO — e, sinceramente, não quereria que fosse de outra forma.

A minha carreira atingiu um novo patamar quando trabalhei como Senior SEO Specialist na Chess.com — um dos 100 sites mais visitados de toda a internet. Operar nessa escala, em milhões de páginas, dezenas de idiomas e numa das SERPs mais competitivas que existem, ensinou-me coisas que nenhum curso ou certificação jamais poderia. Essa experiência mudou a minha perspetiva sobre o que é realmente um grande trabalho de SEO — e tornou-se a base de tudo o que construí desde então.

Foi a partir dessa experiência que fundei a SEO Alive — uma agência para marcas que levam a sério o crescimento orgânico. Não estamos aqui para vender dashboards e relatórios mensais. Estamos aqui para construir estratégias que realmente fazem a diferença, combinando o melhor do SEO clássico com o novo e empolgante mundo da Generative Engine Optimization (GEO) — garantindo que a tua marca apareça não só nos links azuis do Google, mas também dentro das respostas geradas por AI que o ChatGPT, o Perplexity e o Google AI Overviews entregam a milhões de pessoas todos os dias.

E como não consegui encontrar uma ferramenta que lidasse corretamente com esses dois mundos, construí uma eu mesmo — a SEOcrawl, uma plataforma enterprise de SEO intelligence que reúne rankings, auditorias técnicas, monitoramento de backlinks, saúde do crawl e tracking de visibilidade de marca em AI, tudo num só lugar. É a plataforma que sempre desejei que existisse.

→ Ler todos os artigos de David
Mais artigos de David Kaufmann

Descubra mais conteúdos deste autor