9 من أكثر مشاكل SEO شيوعاً وكيف تتفاداها أو تحلّها

9 من أكثر مشاكل SEO شيوعاً وكيف تتفاداها أو تحلّها
Ognian Mikov
دروس SEO
11 min read

SEO مجال معقّد يتطلب التفكير الدقيق لتطبيق عناصر وإجراءات متعددة بشكل صحيح. ثمة طرق مختلفة قد نسلكها بشكل خاطئ ونضرّ فيها بإمكانات الموقع organic.

في هذا المقال سنتناول أكثر مشاكل SEO شيوعاً وكيف تتفادى الوقوع ضحية لها. وفي حال كنت تعاني منها بالفعل، يمكننا أن نساعدك على حلّها بنجاح.

لنبدأ بالأساسيات أولاً.

ما هي مشكلة SEO؟

يمكن تعريف مشكلة SEO المحتملة بأنها أي شيء قد يضرّ بأداء موقعنا في محركات البحث. لضمان التحسين السليم لمواقعنا الأعلى ترتيباً في Google (ومحركات البحث الأخرى)، علينا معرفة بعض الأخطاء الشائعة.

روابط داخلية وخارجية معطّلة

كلما زادت صفحات الموقع، زاد احتمال وجود روابط معطّلة. مع نمو الموقع وإنتاج محتوى جديد، يبقى احتمال ظهور صفحات 404 غير ملحوظة قائماً. تطوير وإضافة ميزات وصفحات هبوط جديدة جيد، لكن علينا الانتباه دوماً لمشاكل الروابط الداخلية والخارجية.

كمستخدمين، لا نحب الوصول إلى صفحة لا تعمل، أليس كذلك؟ فذلك يقطع تدفّقنا، وكثيراً ما يدفعنا إلى مغادرة الموقع فوراً.

404 page not found
404 page not found

قد يرى الزائر الصفحة غير موثوقة. وكما نعلم، Google بارع في تحديد إدراك المستخدم لموقع/صفحة. لذا إن كان المستخدم غير سعيد، سيكون محرك البحث غير سعيد بدوره.

علاوة على ذلك، تستهلك الصفحات المعطّلة crawl budget ثميناً يمكن استخدامه عمداً في موضع آخر. لا نريد أن تنفق الـ bots وقتها ومواردها على صفحات لا يصلها المستخدم.

الخبر السار أنه بفضل أدوات SEO المتعددة يمكن تحديد الروابط الداخلية والخارجية المعطّلة بسهولة. طبيعياً، إن كان موقعك صغيراً ببضع صفحات فستحفظها على الأرجح وسيكون التأكد من عملها أمراً يسيراً.

لكن مع تطوّر الموقع يصبح فعل ذلك يدوياً مستحيلاً وغير ضروري.

نصيحة: شغّل فحوصات مجدولة أسبوعياً أو شهرياً، وعند تحديد روابط معطّلة، تعمّق في الأمر وحلّها بشكل مناسب.

كيف تحلل أداة SEOcrawl صفحة بحثاً عن مشاكل SEO
كيف تحلل أداة SEOcrawl صفحة بحثاً عن مشاكل SEO

محتوى مكرر

المحتوى المكرر من أقدم وأشهر المشاكل المعروفة بين خبراء التسويق الرقمي. القلق الرئيسي أن تقديم صفحات متشابهة لمحركات البحث (Google وغيره) قد يجعلها تواجه صعوبة في تحديد وترتيب الـ URL الصحيحة.

وقد ينتج عن ذلك أننا (كـ SEO) قد نخسر traffic أو لا نحصل على الفائدة الكاملة لموقعنا.

كخبراء في محركات البحث، علينا التأكد من أن محتوانا فريد. ولكي نسهّل حياة محركات البحث، علينا تجنّب بعض المطبّات الشائعة.

كثيراً ما يحدث المحتوى المكرر عند السماح بنسخ متعددة من نفس الصفحة لتكون متاحة للمستخدم والـ bots. مثلاً، توفّر نسختَي http وhttps دون redirect مناسب من المشاكل الشائعة.

لتفادي هذه المشكلة المحتملة علينا إعداد redirect صحيحة من http إلى https. يمكنك اختبار ذلك بسهولة بكتابة http://oursitename.com في المتصفح. إن كان بروتوكول https نشطاً ومعدّاً بشكل صحيح، فسيقوم المتصفح بإعادة التوجيه إلى https://oursitename.com.

مثال على موقع لم يفعّل redirect نسخة http غير الآمنة إلى https
مثال على موقع لم يفعّل redirect نسخة http غير الآمنة إلى https

كذلك، إن كانت النسخة non-www للموقع يجب أن تعيد التوجيه إلى النسخة www إن كانت هي الأساسية، والعكس بالعكس.

إعادة توجيه نسخة non-www إلى www لموقع chess.com
إعادة توجيه نسخة non-www إلى www لموقع chess.com

تُعدّ معاملات (parameters) الـ URL مطبّاً شائعاً آخر يسبّب URLs مكررة. كثيراً ما تضيف أنظمة إدارة المحتوى معاملات الفرز (مقاس، لون، موديل، إلخ) ما يولد عدداً كبيراً من الصفحات بنفس المحتوى.

مثال على URL ذي parameters في Amazon
مثال على URL ذي parameters في Amazon

ليس هذا مدعاة للقلق إن طبّقنا canonical مناسبة وخصائص no-index عند الحاجة.

ملاحظة: وسم canonical طريقة شائعة لإخبار Google بأي مجموعة من الـ URLs المتشابهة يجب فهرسته واعتباره الرئيسي. طريقة أخرى استخدام خاصية no-index عندما تنشئ المعاملات URLs أخرى بنفس المحتوى أو محتوى مشابه.

خلل في وسوم Title

وسم title من أهم عناصر SEO على الموقع. يخبر محرك البحث ما الموضوع الرئيسي للصفحة. كما يظهر title في نتائج البحث في أعلى كل قائمة organic. وهذا يجعله من العناصر الأساسية، وكثيراً ما يكون عاملاً حاسماً لقرار المستخدم بالنقر على نتيجة معيّنة أم لا.

أخذ الوقت لإعداده بشكل صحيح مهمة SEO حاسمة. لكنه أحياناً يُهمَل ما يقود إلى معدّل نقر منخفض.

أبرز مشاكل وسوم title:

  • غياب وسم title كلياً

في هذه الحالة سيحدّد Google title بناءً على ما فهمه عن الصفحة. عادةً ما يحسن أداء هذه المهمة، لكنها تبقى فرصة SEO ضائعة.

من الجيد إعداد وسوم title بنفسك، خصوصاً للصفحات الأهم.

  • وسوم title طويلة جداً أو قصيرة جداً

استخدام title قصير جداً فرصة ضائعة لاجتذاب المستخدمين المحتملين ودفعهم إلى النقر على النتيجة. الممارسة الشائعة الإبقاء بين 55 و65 حرفاً لتظهر في نتائج البحث.

في المقابل، قد تُقتطع وسوم title الطويلة جداً (فوق 65 حرفاً) ولا تُعرض كاملةً، ما يُشكّل فرصة ضائعة أخرى لإيصال رسالتنا الكاملة للعالم على الإنترنت.

title وmeta description مقتطعة في نتائج Google
title وmeta description مقتطعة في نتائج Google

كما ترى، اقتُطع كلٌّ من title وmeta description، فلم تُقدَّم أفضل تجربة للمستخدم.

  • وسوم title مكررة

من الشائع أن تستخدم مواقع ecommerce نفس الوسم. للأسف، تفعل ذلك أحياناً أنواع أخرى من المواقع. تجعل وسوم title المكررة التميّز والتفرد عن الصفحات المتشابهة أصعب.

ميزة في Screaming Frog للعثور على وسوم title مكررة
ميزة في Screaming Frog للعثور على وسوم title مكررة

مشاكل Robots.txt

Robots.txt أداة بسيطة نسبياً لكنها مفيدة، تقدّم معلومات وتعليمات مهمة لـ crawlers محركات البحث. توضع في الجذر، وتستخدم تنسيق plain text.

يمكن أن تمنع crawl أقسام معينة من الموقع لكي لا تُهدر الـ bots مواردها الثمينة. لكن ثمة أخطاء محتملة ينبغي معرفتها.

السماح بالوصول إلى مواقع staging والتطوير أو لوحات الإدارة

ثمة طرق متعددة لمنع وصول محركات البحث إلى نسخ التجربة والتطوير على الدومين. إحدى الطرق هي تعليمات في ملف robots.txt، لكن هناك طرق أكثر فعالية (مثل HTTP authentication).

من أشهر تعليمات الحجب في مواقع WP استثناء مجلد لوحة wp-admin. يبدو هكذا:

User-agent: * Disallow: /wp-admin/

User-agent: * تعني أن التعليمة تنطبق على كل الـ bots (Google bot، Bing bot، إلخ)، والسطر الثاني يقول إننا لا نريد crawl لمجلد /wp-admin/ وكل ما فيه.

حجب crawl لـ URLs مهمة

بعكس الأمر السابق، لا نريد حجب مجلدات مهمة عبر disallow بحيث لا تصلها الـ bots. مثال خطأ شائع:

User-agent: * Disallow: /example-important-directory/

أو أحياناً قد يكون:

User-agent: * Disallow: /

وهو في جوهره يعني منع crawl للموقع كاملاً عن جميع الـ bots. تُستخدم عادةً خلال الاختبارات الأولية قبل أن "يُتاح" الموقع للجمهور. لكنها أحياناً تُهمل، ينسى DEV أو SEO إزالتها عند إتاحة الموقع للجمهور بما يشمل محركات البحث والمستخدمين.

عدم تضمين رابط ملف sitemap

يُعدّ Robots.txt وسيلة جيدة لتسهيل العثور على ملف sitemap الموقع لمحركات البحث. ليس خطأ كبيراً تفويته (خصوصاً للمواقع الأصغر)، لكنه يبقى إجراءً سريعاً ومفيداً.

رابط ملف sitemap مدرج في ملف robots.txt
رابط ملف sitemap مدرج في ملف robots.txt

كارثة وسوم Meta Robots

Meta robots من أهم الوسوم والتوجيهات عموماً في SEO. هي طريقة فعالة لمالكي الموقع لإخبار محركات البحث بألّا تتبع أو تفهرس صفحة معينة.

ثمة استخدامات وإعدادات متنوعة، لكن الأكثر شعبية (وأحياناً خطورة) وسم noindex. "يعيش" في قسم head في HTML ويبدو هكذا:

<meta name="robots" content="noindex,follow" />

أساساً يعني هذا أننا لا نريد من محركات البحث فهرسة المحتوى في نتائج البحث، لكننا نريدها أن تتبع روابط هذه الصفحة. منع فهرسة المحتوى يحلّ مشاكل محتملة عدة. مثلاً:

  • صفحات بمحتوى ضعيف لا يقدم قيمة حقيقية للمستخدم - صفحات الدفع في موقع ecommerce - URLs تحتوي معلومات حساسة - صفحات تطوير/staging غير جاهزة للجمهور

أكثر مشكلة شائعة في أمر noindex نسيان إزالته عندما تكون الصفحة المهمة (أو الموقع كله) جاهزة للإطلاق رسمياً للعالم على الإنترنت. كأن يعمل DEV لمدة طويلة ويختبر أشياء ثم ينسى أحدهم إزالته بعد الإطلاق.

بلا شك هذا من الفحوصات الأولى (والأبسط) عند التساؤل لماذا لا يجلب موقع معيّن أو قسم محدد traffic organic.

افتح الكود المصدري وابحث (ctrl+f) عن "robots". إن وجدت توجيه "no index" فأنت في مشكلة! لكن الخبر السار أنك تعرف الآن السبب وكيفية الحل بسهولة.

meta robots noindex في الكود المصدري
meta robots noindex في الكود المصدري

استخدام خاطئ لـ Canonical

وسم canonical سلاح قوي في ترسانة SEO. يُستخدم كثيراً لتفادي مشاكل SEO المحتملة الناتجة عن وجود محتوى متشابه في URLs متعددة.

شائع جداً مثلاً في ecommerce magazine مع مختلف المعاملات التي قد تخلق مشكلة محتوى مكرر.

عبر canonical نخبر محركات البحث ببساطة أيّ هي الصفحة "الرئيسية" / "الأصلية"، فلا تُسبّب البقية مشاكل. كما يعرف Google أيّ صفحة عليه أن يولي الأولوية لعرضها في نتائج البحث.

ثمة مشاكل قد تحدث هنا. كما ذُكر، إحداها عدم تعيين canonical مع وجود URLs أخرى بنفس المحتوى.

canonical مفقود يبلغه crawler SEOcrawl
canonical مفقود يبلغه crawler SEOcrawl

أكثر المخاطر شيوعاً عند تعيين canonical:

  • canonical يشير إلى URL يحمل وسم noindex - canonical يشير إلى URL يعيد رمز حالة 4xx أو 5xx - canonical يشير إلى نسخة http غير آمنة بينما النسخة الآمنة متاحة - canonical لا يشير إلى نفسه (ما يُسمى canonicalized URL)

ملاحظة: قد يكون هذا مقبولاً إن كان مقصوداً، لكن في معظم الحالات نريد canonical يشير إلى نفسه.

  • وسم canonical فارغ أو يشير إلى صفحة غير صالحة

مشاكل Hreflang

Hreflang مرجع ارتباط في كود HTML للصفحة، يتيح تحديد URLs بديلة مخصّصة للغة أو منطقة معيّنة. مهم جداً للمواقع التي تنشط في بلدان متعددة وتقدّم محتوى بلغات متعددة.

أداة SEOcrawl تظهر فحوصاتها وinsights الـ hreflang لدومين seocrawl.com
أداة SEOcrawl تظهر فحوصاتها وinsights الـ hreflang لدومين seocrawl.com

الفكرة الأساسية لـ مرجع hreflang ضمان عرض النسخة الصحيحة من الموقع للمستخدم بحسب بلده/لغته.

مثلاً نريد عرض نسخة /es من الموقع/الصفحة لزائر من إسبانيا، ونسخة /de لزائر من ألمانيا، إلخ.

في الجوهر، نحن نخبر Google أيّ صفحة تظهر بأي لغة بحسب إعدادات لغة المستخدم وموقعه.

تبدو ملاحظة hreflang هكذا:

<link rel="alternate" href="https://www.example.com/es/" hreflang="es" />

أكثر مشاكل hreflang شيوعاً:

  • غياب رابط العودة (return link)

يجب أن يحمل الـ URL البديل نفس الكود الذي يحويه الصفحة المرجعية لـ hreflang. عند استخدام وسوم hreflang، إن أشارت الصفحة X إلى الصفحة Y، فعلى الصفحة Y أن تشير إلى الصفحة X. أساساً، يجب أن يحوي كل سطر hreflang يشير إلى صفحة أخرى نفس الكود في كل صفحة تُضاف.

  • اللغة المُكتشفة لا تطابق اللغة المحددة

أحياناً تختلف اللغة المحددة في وسم hreflang عن المحتوى الفعلي للصفحة.

  • ISO code خاطئ

من الأخطاء الشائعة استخدام "en-UK" بدل "en-GB" عند استهداف زوار يتحدثون الإنجليزية في المملكة المتحدة. الصياغة (syntax) مهمة جداً أيضاً. كثير من المواقع تستخدم underscores عند تحديد اللغة في URL، لكن hreflang لا يقبل سوى الـ dashes.

  • غياب وسم الإشارة إلى الذات (self-referencing)

إضافة وسم hreflang يشير إلى الذات ضرورية لضمان إعداد المواقع الدولية بشكل صحيح وفهمها من قبل محركات البحث.

  • استخدام URL نسبي بدل مطلق

خطأ شائع آخر في hreflang. علينا تجنّب العناوين النسبية التي تقدّم المسار فقط، واستخدام مسار الصفحة الكامل دائماً.

صحيح:

<link rel="alternate" href="https://www.example.com/es/spanish-post" hreflang="es" />

خطأ:

<link rel="alternate" href="es/spanish-post" hreflang="es" />

أداة مفيدة لتحديد مشاكل hreflang: https://technicalseo.com/tools/hreflang/

مخاطر JavaScript

رغم تأكيد Google أنه يمكن استخدام JavaScript دون مشاكل SEO، علينا الانتباه. كثيراً ما يستخدم المطوّرون JS لتحميل محتوى وروابط مهمة، ما قد يخلق وضعاً تعجز فيه محركات البحث عن crawl المحتوى وفهمه بشكل صحيح.

لذلك يُنصح بتخصيص وقت إضافي لفحص الموقع للتأكد من عرض كل المعلومات المهمة بشكل سليم.

مثلاً، قد يؤدي تطبيق JS سيئ إلى عجز Google عن قراءة meta title وdescription التي عيّنّاها، ما يسبّب مشاكل في CTR في نتائج البحث.

crawler SEOcrawl يبلّغ عن وسم title مفقود في صفحة
crawler SEOcrawl يبلّغ عن وسم title مفقود في صفحة

لذا من الضروري بالغ الأهمية إدراك تفسير Google لمحتوى JavaScript ومدى قدرته على crawl وفهرسة المعلومات بشكل سليم.

مشاكل في القابلية للاستخدام على الموبايل

لن يفاجأ أحد إن قلنا إن قابلية الاستخدام على الموبايل وأداء الموقع من أهم عاملَي SEO اليوم.

مرّت سنوات منذ تحوّل Google إلى mobile-first indexing وإعطاء الأولوية لنسخة الموبايل.

من المشاكل الكبرى التي كانت أكثر شيوعاً سابقاً عرض محتوى مختلف لمستخدمي سطح المكتب والموبايل. ممارسة شديدة الخطورة قد تقود إلى نتائج organic أدنى.

من أبرز العوامل التي قد تؤثر على أداء الموقع:

  • عدد كبير من plugins

ابتعد عن تثبيت عدد كبير من plugins. كلما زادت plugins، أصبح الموقع أثقل وأبطأ.

كما قد تشكّل plugins خطراً أمنياً (إن لم تُحدَّث في الوقت المناسب) إذ تصبح نقاط دخول محتملة للمخترقين.

  • صور غير مُحسَّنة

الصور من أكثر العناصر شيوعاً التي تؤثر على سرعة الصفحة وأداء الموقع عموماً. لا أحد يستمتع بموقع يُحمَّل ببطء، لذا يُنصح دائماً بإبقاء الصور تحت 100kb.

توصية بتحجيم الصور بشكل صحيح من أداة Google PageSpeed Insights
توصية بتحجيم الصور بشكل صحيح من أداة Google PageSpeed Insights

  • خدمة الـ hosting

ضع في حسبانك أن الخادم الذي يستضيف موقعك هو الأساس الذي سيُبنى عليه كل شيء. لذلك من الجيد عدم اختيار أرخص الحلول وتقليل الصداع المستقبلي. يستحق الأمر استثماراً إضافياً صغيراً، لكنك ستحصل بدلاً منه على hosting موثوق وآمن وسريع.

خلاصة

كما رأيت، ثمة طرق كثيرة قد تسوء فيها الأمور في SEO. ويجدر القول إن هذه فقط بعض من أكثر مشاكل SEO التقنية شعبية وشيوعاً التي قد نواجهها. ثمة كوابيس SEO أخرى محتملة.

نأمل أن يكون هذا قد ساعدك حتى الآن على فهم وتصور أوضح لأهم مشاكل SEO، والأهم: كيف تتفاداها أو تحلّها.

حظاً موفقاً!

بقلم: Ognian Mikov

Ognian Mikov

دخل SEO حياتي عام 2012، ومنذ ذلك الحين أعيشه باهتمامٍ كامل. SEO بالنسبة لي أكثر من مجرّد عمل — هو شغف وهواية تُحفِّزني للتعلّم والتطوّر باستمرار. سواء كنت أبحث في موضوع جديد، أو أُنشئ محتوى، أو أتعمّق في إصلاحات تقنية، فإنّ العالم الواسع للتسويق الرقمي والفرص اللانهائية لرفع أداء المواقع تُذهلني دائمًا.

أحمل بكالوريوس في التسويق وماجستير في العلاقات العامة والإعلان. في وقت فراغي، أحبّ قضاء الوقت مع ابنتي ولعب أو مشاهدة الشطرنج وكرة القدم (Само Левски و Més que un club) والبوكر.

→ اقرأ جميع مقالات Ognian
المزيد من المقالات: Ognian Mikov

اكتشف المزيد من محتوى هذا الكاتب