تقرير Crawl Stats الجديد في Google Search Console

في أواخر نوفمبر 2020، أعادت Google إطلاق تقرير إحصائيات الـ crawl المُحدَّث، فيبدو أن رياح تغيير قوية تهب على عالم SEO التقني. أصبح اسمه الآن Crawl Stats، وبفضل هذا التقرير يمكننا أن نتعلم كيف تزور bots Google المختلفة موقعنا، وأن نستخلص رؤى قيّمة من هذه البيانات المفيدة.
ما هو Google Crawl Stats؟
هو إعادة هيكلة كبيرة لقسم "crawl stats" الذي كان موجودًا في Webmaster Tools السابقة. يتيح لنا الوصول إلى عدد من البيانات والإحصائيات المتعلقة بسجل crawl Googlebot لموقعنا. في النسخة الجديدة، أصبحت أداة عمل تتعامل إلى حد ما مع logs، ولم تعد مجرد رسوم بيانية للعرض.
يمكن الوصول إلى هذا التقرير من حساب Search Console عبر Settings > Crawl stats.
ميزات جديدة في التقرير المُعاد تصميمه
أُضيفت عدة ميزات جديدة:
- العدد الإجمالي لطلبات bot مجمَّعًا بحسب رمز الاستجابة، ونوع الملف الذي خضع لـ crawl، وغرض الـ crawl، ونوع Googlebot. بعضها سيكون مفيدًا جدًا.
- معلومات تفصيلية عن حالة الـ host.
- أمثلة URLs تُظهر من أي موقع في الموقع نشأت الطلبات المختلفة.
- ملخص شامل للخصائص ذات hosts متعددة ودعم للخصائص من نوع domain.
أقسام أداة تحليل logs الخاصة بـ Google
لنستعرض معًا الأقسام المختلفة لـ Crawl Stats. هل تنضم إلينا؟
رسم Crawl stats البياني
هذا الرسم البياني الجديد، المُكيَّف مع التصميم الحالي لـ Search Console، يعرض إحصائيات الـ crawl عبر الزمن. في الرسم يمكننا رؤية ثلاثة مقاييس:
- العدد الإجمالي لطلبات الـ crawl خلال فترة معينة، أو يوميًا عبر تحريك المؤشر فوق الرسم.
- الحجم الإجمالي للبيانات المُنزَّلة بوحدة bytes.
- متوسط زمن الاستجابة بالميلي ثانية.

حتى هنا لا توجد تغييرات كبيرة. الأمر أقرب إلى تعديل في الواجهة. لكن لننظر إلى القسم التالي…
crawling مختلف hosts خاصية الـ domain
يمكن أن تتكوّن خاصية الـ domain في Search Console من عدة hosts، كالنسخة بـ www والنسخة بدونها، أو جميع subdomains التي قد تمتلكها. عبر هذا الرسم يمكنك رؤية كيف يقوم Googlebot بـ crawl لها، ويمكن النقر على كل واحد منها للحصول على معلومات منفصلة ومُفلترة.

في هذا القسم، يمكنك رؤية 3 مؤشرات تخبرنا بالكثير في لمحة:
تجميعات جديدة لخصائص الـ crawl
يمكننا الآن تصنيف زيارات Googlebot عبر عدة أبعاد للـ crawl:
- حسب الاستجابة: بهذه الطريقة يمكنك معرفة عمليات إعادة توجيه وصفحات الأخطاء التي مر بها Googlebot خلال الفترة المحددة.
- حسب نوع الملف: قد يكرّس Googlebot وقت crawl كثيرًا لأنواع ملفات لا تهمنا. بفضل هذا التجميع يمكننا اكتشاف ذلك.
- حسب الغرض: يمكنك التمييز بين النسبة المخصصة لـ crawling صفحات يعرفها مسبقًا، وتلك المخصصة لاكتشاف URLs جديدة.
- حسب نوع bot Google: نعلم أن لدى Google أنواعًا مختلفة من bots ولكل منها وظيفة محددة. في هذا التقرير يمكنك رؤية مدى تكرار زيارة كل واحد منها لنا.
يمكن النظر إلى كل واحد منها بتفصيل ورؤية بعض الأمثلة من URLs. ومع ذلك، فهي مجرد أمثلة فقط. ليست جميع URLs المعروضة في التقرير قابلة للاستخدام. يمكنك تحديد الأنماط، لكن لا يمكنك تنزيل المعلومات الكاملة للعمل عليها.

خلاصة عن الأداة
هذا تحسين يساعدنا كثيرًا على اكتشاف مشكلات crawl مهمة في الموقع بطريقة بسيطة ومجانية. لا أعتقد أنه سيحلّ محل أدوات تحليل logs مثل Kibana أو Screaming Frog Log File Analyzer، لأن ما تقدمه لنا Google عبارة عن عيّنة وليست بيانات دقيقة. لذلك لا يمكن أن يحلّ محلها في المشاريع ذات المتطلبات الخاصة. باختصار، يمكنه حلّ مشكلات كثيرة، لكنه لا يستطيع تحليل crawling Google لموقعنا بشكل كامل. ضع في اعتبارك أنها ميزة طُرحت للتو، وفي الوقت الراهن لا نعرف كيف ستتطور.
بقلم: David Kaufmann

قضيتُ السنوات العشر الأخيرة منشغلًا تمامًا بـ SEO — وبصراحة، لم أكن لأبدّل ذلك بأي شيء آخر.
تطوّرت مسيرتي إلى مستوى جديد عندما عملت أخصّائيَّ SEO أوّل في Chess.com — أحد أكثر 100 موقع زيارةً على الإنترنت بأكمله. العمل على هذا النطاق علّمني ما لم تعلّمه لي أي دورة أو شهادة.
من هذه التجربة، أسّستُ SEO Alive — وكالة للعلامات التجارية الجادّة بشأن النموّ العضوي. وبما أنّي لم أجد أداةً تُتقن العالَمَين الكلاسيكي وعصر الذكاء الاصطناعي، بنيتُ SEOcrawl. إن كنت تبحث عن شريك SEO خبير يعشق هذا المجال — يسعدني التواصل معك!
اكتشف المزيد من محتوى هذا الكاتب

