Nuevo informe Crawl Stats en Google Search Console

A finales de noviembre de 2020 Google ha re-lanzado su informe de estadística de rastreo renovado y parece que el mundo del SEO técnico se ha revolucionado. Ahora se llama Crawl Stats y, gracias a él, podrás conocer cómo los distintos bots de Google visitan tu página y obtener valiosos insights gracias a estos útiles datos.
¿Qué es Google Crawl Stats?
Se trata de una renovación a fondo del apartado "estadísticas de rastreo" que había en el antiguo Webmaster Tools. Con él, conoceremos diferentes datos y estadísticas sobre el historial de rastreo de Googlebot en nuestra página web. En la nueva versión, se convierte en una herramienta para trabajar en cierta medida con logs y deja de ser una mera gráfica de visualización.
Puedes acceder a este informe desde tu cuenta de Search Console, en Ajustes > Estadísticas de rastreo.
Novedades que presenta el nuevo informe
Son varias las novedades que trae:
- Número total de solicitudes del bot agrupadas por código de respuesta, tipo de archivo rastreado, propósito del rastreo y tipo de Googlebot. Algunas de ellas te resultarán muy útiles.
- Información detallada sobre el estado del host.
- Ejemplos de URL para mostrar en qué lugar concreto de la web tuvieron lugar las distintas solicitudes.
- Resumen completo de las propiedades con múltiples hosts y soporte para las propiedades de los dominios.
Apartados de la herramienta de análisis de logs de Google
Te invitamos a un viaje por los distintos apartados de Crawl Stats, ¿te vienes?
Gráfica de estadísticas de rastreo
Este nuevo gráfico, ya adaptado al actual diseño de Search Console, muestra las estadísticas de rastreo a lo largo del tiempo. En él puedes visualizar tres métricas:
- El total de solicitudes de rastreo en un período de tiempo o de manera diaria si colocas el cursor sobre la gráfica.
- El tamaño total de datos descargados en bytes.
- El tiempo medio de respuesta en milisegundos.

Hasta aquí pocas novedades, se trata más bien de un cambio de interfaz. Pero veamos las siguientes secciones...
Crawleo de los distintos hosts de tu propiedad de dominio
Tu propiedad de dominio en Search Console puede estar compuesta por varios hosts como serían las versiones con y sin www, o algún subdominio que puedas tener. En esta gráfica te permite ver cómo Googlebot los rastrea y puedes clicar en cada uno de ellos para obtener la información individual y filtrada.

En esta sección podemos tener 3 indicadores que de un sólo vistazo ya nos dicen mucho:
Nuevas agrupaciones de características de rastreo
Ahora podemos categorizar las visitas de Googlebot en varias dimensiones de rastreo:
- Por respuesta: De este modo sabremos las redirecciones y páginas con error por las que ha pasado Googlebot en el periodo de tiempo especificado.
- Por tipo de archivo: Puede que Googlebot destine mucho tiempo de rastreo a tipologías de archivo que no nos interesan. Gracias a esta agrupación lo sabremos.
- Por finalidad: Aquí podremos distinguir entre el porcentaje de rastreo que dedica a páginas que ya conocía y a detectar nuevas URLs.
- Por tipo de robot de Google: Sabemos que Google tiene distintos tipos de bot y cada uno posee una funcionalidad. En este informe sabremos la frecuencia con la que nos visita cada uno.
Podrás entrar en cada una y ver unos ejemplos de URLs. Eso sí, solo son eso, ejemplos. No estarán a tu disposición todas las que ves en el informe. Podrás sacar patrones, pero no descargar la información completa y trabajar a partir de ella.

Conclusiones sobre la herramienta
Se trata de una mejora que ayuda muchísimo a detectar problemas de peso en el rastreo de la web de manera sencilla y gratuita. No creemos que sustituya a herramientas de análisis de logs como Kibana o Screaming Grog Log File Analyzer, porque Google lo que nos ofrece es un muestreo, no datos exactos. De ahí que para proyectos que tengan requerimientos especiales, no podrá sustituirse. En definitiva, podremos solucionar muchos problemas, pero no analizar completamente el rastreo que Google realiza en nuestra página web. A tener en cuenta que es una funcionalidad recién lanzada y desconocemos, por el momento, cuál va a ser su evolución.
Autor: David Kaufmann

Llevo más de 10 años completamente obsesionado con el SEO — y sinceramente, no lo cambiaría por nada.
Mi carrera dio un salto cuando trabajé como especialista SEO sénior en Chess.com — uno de los 100 sitios web más visitados de todo Internet. Operar a esa escala, con millones de páginas, decenas de idiomas y uno de los SERPs más competitivos, me enseñó cosas que ningún curso podría. Esa experiencia cambió mi perspectiva sobre lo que significa hacer SEO de verdad — y se convirtió en la base de todo lo que he construido desde entonces.
De esa experiencia nació SEO Alive — una agencia para marcas que se toman en serio el crecimiento orgánico. No vendemos dashboards ni informes mensuales. Construimos estrategias que realmente mueven la aguja, combinando lo mejor del SEO clásico con el nuevo mundo del Generative Engine Optimization (GEO) — asegurando que tu marca aparezca no solo en los enlaces azules de Google, sino también en las respuestas generadas por IA que ChatGPT, Perplexity y Google AI Overviews entregan a millones de personas cada día.
Y como no encontré una herramienta que gestionara ambos mundos correctamente, construí la mía propia — SEOcrawl, una plataforma de inteligencia SEO empresarial que une rankings, auditorías técnicas, monitorización de backlinks, salud del crawl y seguimiento de visibilidad de marca en IA, todo en un solo lugar. Es la plataforma que siempre deseé que existiera.
Descubre más contenido de este autor

