كيف نكتشف المحتوى المكرر ونعالجه؟

كيف نكتشف المحتوى المكرر ونعالجه؟
David Kaufmann
دروس SEO
7 min read

كل من يعمل في مجال SEO تعامل مع المحتوى المكرر، أحد أكثر المشكلات شيوعًا التي تؤثر على الترتيب في محركات البحث وقد تؤدي إلى عقوبات. الهدف الرئيسي لمحركات البحث مثل Google وBing وYahoo هو عرض المعلومات الأكثر صلة بنية البحث لدى المستخدم. ولأجل ذلك، تُرتّب النتائج بترتيب تنازلي، فتكافئ المحتوى الأصلي عالي الجودة وتعاقب المحتوى المنسوخ أو المكرر أو غير ذي الصلة أو الذي تم التلاعب به للظهور أعلى في صفحات النتائج.

في هذا المقال سنشرح ما هو المحتوى المكرر، وكيف يمكن اكتشافه ومعالجته، وأثره على SEO، والأدوات التي يمكن الاستعانة بها للعمل عليه. هل ترافقنا؟ هيا بنا!

ما هو المحتوى المكرر؟

كما ذكرنا، تعاقب محركات البحث مثل Google الصفحات التي تحتوي محتوى مكررًا، والذي يُفسَّر على أنه صفحتان لهما URLs مختلفان لكنهما تحتويان على المحتوى ذاته. لذا، تجنّب قدر الإمكان نسخ محتوى مواقع أخرى ولصقه في موقعك (سيوفر ذلك أيضًا الكثير من المشاكل مع Google والإجراءات القانونية المحتملة من مالكي تلك المواقع المنسوخ منها!).

نصيحة من SEOcrawl: بصفتنا وكالة متخصصة في تحسين محركات البحث، ننصحك بشدة بالاهتمام بمحتوى موقعك وتجنب هذه الممارسات السيئة. فبالصبر والاجتهاد ستأتي النتائج لمحتواك الأصلي عاجلًا أم آجلًا. موقف Google واضح جدًا في هذا الشأن، كما يظهر في وثائقها الرسمية حول المحتوى المكرر، لذا يجب أن نكون حذرين جدًا مع المحتوى الذي نكتبه.

في ترتيب SEO يمكن التمييز بين نوعين من المحتوى المكرر: المحتوى المكرر الداخلي والمحتوى المكرر الخارجي.

المحتوى المكرر الداخلي

ينشأ هذا النوع عادةً عن سوء تطبيق الـ parameters في الـ URLs أو سوء إدارة taxonomy الفئات والوسوم. فيما يلي الأسباب المحتملة لإنشاء المحتوى المكرر الداخلي.

  • أخطاء في إنشاء الفئات والوسوم: خطأ شائع في المدونات ذات المحتوى الكبير عند إنشاء الفئات والوسوم دون أي ترتيب أو منطق. لنرَ مثالًا.

تخيّل أن لديك مدونة تسويق رقمي بفئات متعددة.

https://myblogdigital.com/category-a/topic/

https://myblogdigital.com/category-b/topic/

https://myblogdigital.com/category-c/topic/ لتجنب المحتوى المكرر، يجب الإشارة إلى أيها الرئيسي وعمل canonical للأخريين تجاه الرئيسي.

  • النطاقات بـ "Non-www" مقابل "www" و"http" مقابل "https": هذا خطأ آخر يجب الانتباه إليه. فإذا لم نُعلم محركات البحث بالنطاق canonical، فقد يصل إلى نسخ أخرى وينشئ محتوى مكررًا. لذلك تنصح SEOcrawl بتحديد النطاق canonical وإعداد إعادة توجيه 301 إلى الإصدار المفضّل.

  • URLs ذات parameters: خطأ شائع في مواقع ecommerce حيث تتيح parameters الـ URL تطبيق فلترة لتقديم المعلومات للمستخدم. لنفترض أن موقعًا لبيع الساعات لديه الـ URL التالي.

https://www.mywatchstore.com/watches/garmin?color=black تعرض هذه الصفحة جميع طرازات "Garmin" باللون الأسود.

إمكانية إعداد فلاتر في الصفحة قد تكون مشكلة كبيرة إن لم تُدَر جيدًا. فقد تعرض محركات البحث تركيبات متعددة من الـ URLs.

https://www.mywatchstore.com/watches/garmin?color=black&type=sport

https://www.mywatchstore.com/watches/garmin?type=sport&color=black لذلك تنصح SEOcrawl بضبط الإصدار canonical على الصفحة بدون فلاتر، حتى تحافظ بقية الـ URLs ذات parameters على authority الصفحة (URL Ratio).

المحتوى المكرر الخارجي

يشير المحتوى المكرر الخارجي إلى محتوى مأخوذ أو منسوخ كليًا أو جزئيًا من موقع أو أكثر يملكه مدير موقع أو إداري آخر.

تُعد هذه الممارسة spam في نظر محركات البحث، ويجب تجنبها بأي ثمن كما ذكرنا في بداية المقال.

سبب آخر للمحتوى المكرر الخارجي قد يكون استراتيجيات الـ syndication، حيث تُرسل المواقع زيارات إلى مواقع أخرى للتلاعب بمحركات البحث. خوارزميات Google اليوم ذكية بما يكفي لاكتشاف هذا النوع من الممارسات.

كيف يمكنني التحقق من وجود محتوى مكرر في موقعي؟

معرفة كيفية اكتشاف المحتوى المكرر أمر حاسم في استراتيجية محتوى الموقع. فإذا لم نسيطر على هذا العامل، فقد تتراجع صفحاتنا تدريجيًا في نتائج Google الأولى. تُحسّن Google باستمرار SERP لإيجاد محتوى أصلي عالي الجودة. لذا نريد أن نقدّم مثالًا لكيفية اكتشاف هذا المحتوى في موقعنا، ونوفر بعض الاستراتيجيات لتجنبه.

لنفترض أن لدينا متجرًا إلكترونيًا (ecommerce) به نسخة قابلة للطباعة لكل صفحة منتج. ستُعتبر مكررة لأن "نسختين" من المحتوى نفسه موجودتان تحت URLs مختلفة.

صفحة تفاصيل المنتج: https://mywebsite.com/product3560

صفحة الطباعة: https://mywebsite.com/product3560_print لتجنب هذا النوع من المحتوى المكرر يمكن تطبيق الاستراتيجيات التالية.

الاستراتيجية #1: استخدام إعادة التوجيه 301

إذا أعدت هيكلة الموقع، يمكنك إعداد إعادة توجيه 301 (إعادة توجيه دائمة) عبر إضافات SEO المضمَّنة في مستودعات أنظمة إدارة المحتوى (CMS) المختلفة، أو عبر ملف .htaccess، لإعادة توجيه المستخدمين وbots محركات البحث وغيرها من الأدوات التي تتمتع بوظائف crawl بشكل ذكي.

الاستراتيجية #2: استخدام وسم canonical

يُستخدم وسم rel="canonical" لإعلام محركات البحث بالصفحة الأصلية (الإصدار canonical) والصفحة التي تُعد نسخة. وبهذه الطريقة، يركّز spider محركات البحث ميزانية فهرسته على الصفحة التي تحمل وسم meta هذا.

لاستخدام وسم canonical، يجب أولًا اختيار الصفحة التي تريد أن تعرضها محركات البحث، وإضافة السطر التالي إلى قسم </head> من كود HTML (سنرى مثال canonical في صفحة منتج بموقع Zalando).

<link rel="canonical" ahref= "https://www.zalando.es/adidas-originals-stripe-circle-camiseta-estampada-white-ad121000k-a11.html"/> على سبيل المثال، إذا كان لديك URL يعرض تفاصيل منتج ما وآخر يعرض التفاصيل ذاتها بلون مختلف، يمكنك إعلام Google بأي URL canonical تريد عرضه للمستخدم.

الاستراتيجية #3: استخدام ملف robots.txt

بتعديل هذا الملف يمكننا إعلام bots محركات البحث بعدم crawl صفحات أو أقسام معينة من موقعنا. تخيّل أن لدينا في موقعنا صفحات المنتج التالية.

https://www.mywebsite.com/category/product-page.html/

https://www.mywebsite.com/category/product-page1.html/ (الإصدار الذي يحتوي محتوى مكررًا)

سنضيف التوجيه التالي إلى ملف robots.txt.

  • Disallow /product-page.1html/

سيمنع ذلك توليد المحتوى المكرر، ويجب طبعًا تعيين الـ URL الأول كإصدار canonical.

أثر المحتوى المكرر على ترتيب SEO

عند إطلاق النسخة الأولى من خوارزمية Google Panda عام 2011، عاقبت النطاقات التي تحتوي على thin content ومحتوى مكرر. ولاحقًا في 2013، نشر Matt Cutts فيديو يشرح كيف تتعامل Google مع المحتوى المكرر وأثره السلبي على الترتيب من منظور SEO.



ما يمكن استنتاجه من فيديو Matt Cutts أن 25 إلى 30% من الويب، بحسب Google، عبارة عن محتوى مكرر، لكن محرك البحث لا يعتبره spam مباشرة، إلا حين يكون هناك قصد سيئ بإنتاج كميات ضخمة من المحتوى أو نسخه أو محاولة التلاعب المباشر بالموضع في صفحات نتائج البحث عبر تكتيكات "Black Hat".

باختصار، إنشاء هذا النوع من المحتوى قد يبعث بإشارات جودة منخفضة إلى محركات البحث مثل Google، وقد يشكّل عائقًا أمام تعزيز مؤشرات الروابط (authority والصلة والثقة) للمحتوى، إذ يمكن استلام روابط خارجية (backlinks) لإصدارات مختلفة من المحتوى ذاته.

أدوات لاكتشاف المحتوى المكرر

عند اكتشاف المحتوى المكرر، توجد في السوق أدوات عديدة قد تسهّل هذا العمل. لنستعرضها!

أدوات لاكتشاف المحتوى المكرر في موقعك

  • Ahrefs: يمكنك عبر Ahrefs، ضمن وظيفة "site audit" وبشرط إضافة مشروع لتدقيق SEO، رؤية ما إذا كان موقعك يحتوي على محتوى مكرر. للقيام بذلك يجب الانتقال إلى علامة التبويب "duplicate content". هناك سيظهر رسم بياني يتيح تحديد الأخطاء المحتملة الواجب تصحيحها.

وظيفة المحتوى المكرر في Ahrefs
وظيفة المحتوى المكرر في Ahrefs

صورة لوظيفة "Duplicate Content" في Ahrefs

  • Screaming Frog: يتيح أيضًا هذا البرنامج crawler الشهير اكتشاف المحتوى المكرر. لذلك يجب إدخال النطاق المراد scraping وتصدير بيانات "internal" بصيغة .csv. ومن خلال جدول البيانات، يمكنك العرض والترتيب والفلترة لمعرفة الصفحات التي تحوي titles وmeta descriptions وheaders وغيرها مكررة.

نصيحة SEOcrawl: استخدم قواعد التنسيق الشرطي في جدول البيانات لتحديد الـ URLs التي ينبغي تصحيحها، استنادًا إلى مستوى المحتوى المكرر وأهمية كل صفحة وصلتها.

  • Safecont: أداة مثيرة للاهتمام فعلًا تركّز كليًا على تحليل المحتوى، وتستخدم "machine learning" لاكتشاف clusters وتشابه المحتوى. شاملة جدًا، وقد يجلب استخدامها فوائد كبيرة إن أردت اكتشاف محتوى مكرر في موقعك.

أداة محتوى Safecont
أداة محتوى Safecont

صورة لوظيفة "Similarity" في Safecont

أدوات لاكتشاف المحتوى المكرر في مواقع أخرى

  • Copyscape: إذا أردت معرفة ما إذا كان محتوى ما قد كُرر في مواقع أخرى، فإن Copyscape محرك بحث متخصص في اكتشاف صفحات الويب التي تنتحل المحتوى. في هذا المحرك يكفي إدخال الـ URL الذي يستضيف المحتوى المراد التحقق منه، وتُعيد الأداة الصفحات التي تشاركه ذلك المحتوى مرتبة من الأعلى تشابهًا إلى الأدنى.

  • Plagium: أداة أخرى مشابهة جدًا لـ Copyscape، لكن بفارق أنه يجب إدخال النص الذي تريد التحقق منه بدلًا من URL. تجدر الإشارة إلى أن لها نسخة مدفوعة. النسخة "المجانية" تقتصر على نص بحد أقصى 5,000 حرف للتحقق منه.

الخلاصة

نظرًا لأن SEOcrawl وكالة "White Hat SEO" بنسبة 100%، فإن توصيتنا في ختام المقال هي تجنّب المحتوى المكرر دائمًا. وإذا اكتشفت هذا النوع من المحتوى في موقعك، فاستعن بكل الاستراتيجيات والنصائح التي قدمناها. تذكر: Google تحب المحتوى الأصلي عالي الجودة!

وأنت، هل عشت تجربة سيئة مع المحتوى المكرر أو تعرضت لعقوبة بسببه؟ كيف عالجت ذلك؟ أخبرنا في التعليقات إن أردت! يسعدنا الرد عليك. إلى اللقاء قريبًا!

بقلم: David Kaufmann

David Kaufmann

قضيتُ السنوات العشر الأخيرة منشغلًا تمامًا بـ SEO — وبصراحة، لم أكن لأبدّل ذلك بأي شيء آخر.

تطوّرت مسيرتي إلى مستوى جديد عندما عملت أخصّائيَّ SEO أوّل في Chess.com — أحد أكثر 100 موقع زيارةً على الإنترنت بأكمله. العمل على هذا النطاق علّمني ما لم تعلّمه لي أي دورة أو شهادة.

من هذه التجربة، أسّستُ SEO Alive — وكالة للعلامات التجارية الجادّة بشأن النموّ العضوي. وبما أنّي لم أجد أداةً تُتقن العالَمَين الكلاسيكي وعصر الذكاء الاصطناعي، بنيتُ SEOcrawl. إن كنت تبحث عن شريك SEO خبير يعشق هذا المجال — يسعدني التواصل معك!

→ اقرأ جميع مقالات David
المزيد من المقالات: David Kaufmann

اكتشف المزيد من محتوى هذا الكاتب