Cloaking

มีเทคนิคการจัดอันดับเสิร์ชเอนจินมากมาย แต่เราสามารถแยกแยะระหว่างตัวที่ดีหรือระมัดระวังที่รวมใน "White Hat SEO" และแนวปฏิบัติที่อันตรายหรือไม่ดีที่รู้จักว่า "Black Hat SEO" ทุกอย่างขึ้นอยู่กับว่าเราโปร่งใสและมีจริยธรรมเพียงใดในฐานะผู้เชี่ยวชาญ SEO บนเว็บไซต์เมื่อจัดการกับเสิร์ชเอนจิน ปัจจุบันอัลกอริทึมของ Google มีความซับซ้อนมากขึ้นและยากขึ้นที่จะหลอก ดังนั้นเทคนิคที่มีจริยธรรมน้อยกว่าจะเลิกใช้
หนึ่งในนั้นรู้จักว่า cloaking และมี "บูม" ของตัวเองเมื่อหลายปีก่อน ตอนนี้แทบไม่ได้ใช้ แต่จำเป็นที่ต้องเข้าใจเพื่อให้แน่ใจว่าไม่มีอยู่บนเว็บไซต์ใดที่เราจัดการ
Cloaking ใน SEO คืออะไร
Cloaking คือเทคนิคการปกปิด ซึ่งชื่อมาจากภาษาอังกฤษและหมายถึง "ปกคลุม" และประกอบด้วยการแสดงคอนเทนต์ที่แตกต่างจากเว็บไซต์เดียวกันให้ผู้ใช้และ Googlebot เมื่อพวกเขาส่งคำขอไปยังเซิร์ฟเวอร์สำหรับคอนเทนต์ของเว็บไซต์ที่เข้าชม
เทคนิคนี้สังกัด Black Hat SEO ที่รู้จักดี หรือชุดเทคนิคและกลยุทธ์หลอกลวงและไม่มีจริยธรรมที่มุ่งปรับปรุงการจัดอันดับเว็บไซต์โดยหลอก Google
กระบวนการ crawl เป็นอย่างไร
ในการเข้าใจวิธีที่กลยุทธ์ Cloaking ทำงาน เราต้องรู้ว่า กระบวนการ crawl ของ bot เป็นอย่างไร กระบวนการ crawl และการจัดทำดัชนีดำเนินการโดย spider ที่รับผิดชอบในการรับรู้เว็บไซต์ spider ของ Google รู้จักในชื่อ Googlebot ร่วมกับสองเวอร์ชันที่แตกต่าง deepbot และ freshbot ตัวแรกรับผิดชอบในการติดตามลิงก์ทั้งหมดที่อยู่ในคอนเทนต์ของเว็บไซต์อย่างละเอียดและเข้าชมไซต์ ตัวที่สองรับผิดชอบในการมองหาคอนเทนต์ใหม่บนเว็บ
ที่มาคืออะไร
ที่มาของ Cloaking สามารถสืบย้อนไปยังเว็บไซต์ที่มีคอนเทนต์วิดีโอ กราฟิกหรือแอนิเมชันที่มีความยากกว่าในการจัดอันดับในผลการค้นหา และเทคนิคนี้ช่วยชดเชยข้อเสียนี้ จากนั้นเกิดขึ้นว่า crawler ถูกแสดงหน้าเต็มของคอนเทนต์ที่อธิบายคอนเทนต์ของรูปภาพหรือวิดีโอเนื่องจากความเร็วในการประมวลผลที่ bot มี
กระบวนการ Cloaking ทำงานอย่างไร
จุดประสงค์ของเทคนิคนี้คือหลอกเสิร์ชเอนจินเพื่อปรับปรุงการจัดอันดับเว็บไซต์ในผลการค้นหา ไม่มีจริยธรรมเพราะคอนเทนต์ที่แสดงให้ผู้ใช้มักเป็นคอนเทนต์ลามกหรือการพนัน (เช่น casino) ในขณะที่คอนเทนต์ที่แตกต่างมากถูกแสดงให้ robot ของ Google
โดยทั่วไปดำเนินการผ่านสองเทคนิคที่แตกต่าง
Agent name delivery การเข้าถึงเว็บไซต์ทำผ่าน "user agent" ที่สามารถมีตั้งแต่บุคคลทางกายภาพถึง bot เพราะสิ่งนี้ เซิร์ฟเวอร์สามารถปรับคอนเทนต์ที่จะแสดงขึ้นอยู่กับประเภทของ user agent Cloaking เกิดขึ้นเมื่อคอนเทนต์ที่แตกต่างถูกส่งมอบตามประเภทของผู้ใช้ที่เข้าชมไซต์
ระยะหนึ่งก่อน ใช้ปลั๊กอิน "User agent switcher" คุณสามารถเรียกดูหน้าด้วย user agent ของ Googlebot สิ่งนี้มีประโยชน์มากในการตรวจสอบว่ามีความแตกต่างระหว่างคอนเทนต์ที่แสดงให้ผู้ใช้หรือ bot

IP Delivery เมื่อการส่งมอบคอนเทนต์ของเว็บไซต์คำนึงถึง IP address ที่ทำการสอบถามจาก
เทคนิคนี้ดำเนินการโดยแก้ไขไฟล์ .htaccess ตัวอย่าง เซิร์ฟเวอร์ Apache มีโมดูลเรียกว่า "mod_rewrite" ที่อนุญาตการแก้ไขนี้
มีเทคนิค Cloaking เพิ่มหรือไม่
เทคนิคบางอย่างไม่ใช่ Cloaking อย่างเข้มงวด แต่ซ่อนหรือทำให้ bot crawl คอนเทนต์ยาก สามารถถือว่าเป็น Cloaking
-
ข้อความที่ซ่อนหรือมองไม่เห็น ใช้รวมคำสำคัญและข้อมูลเพิ่มเติมที่ซ่อนจากผู้ใช้ ข้อมูลนี้ถูก "ปกปิด" ด้วยสีเดียวกับสีพื้นหลังของหน้า
-
เว็บไซต์ Flash ดังที่คุณรู้ การใช้ flash ไม่ได้รับการแนะนำในคู่มือคำแนะนำ SEO เสิร์ชเอนจินไม่สามารถอ่านคอนเทนต์และดังนั้นจัดอันดับ
-
อีเมล เกิดขึ้นเมื่อไม่ได้ระบุชื่อหรืออีเมลของผู้ส่งและดังนั้นไม่ทราบว่าใครส่งอีเมล
-
เว็บไซต์ที่มี HTML จำนวนมาก SEO ที่ดีแนะนำอัตราส่วน html/text สูงที่ช่วยจัดอันดับหน้าในเสิร์ชเอนจิน แต่หากไม่ใช่กรณีนี้ จะมีข้อความน้อยและอัตราส่วนต่ำ ในการต่อต้านสิ่งนี้และหลีกเลี่ยงการออกแบบใหม่ ใช้เทคนิค cloaking
-
Image gallery ในการชดเชยรูปภาพ webmaster รวมคำสำคัญที่จะช่วยกับการจัดอันดับ
-
Geolocation ประกอบด้วยการแสดงหน้าที่แตกต่างขึ้นอยู่กับตำแหน่ง นี่คือยุทธวิธีปัจจุบันเพราะหลายเว็บไซต์ทำโดยแสดงคอนเทนต์ที่แตกต่างขึ้นอยู่กับประเทศ ตัวอย่าง แต่กลายเป็นเทคนิคมุ่งร้ายหากคอนเทนต์ที่แตกต่างถูกแสดงขึ้นอยู่กับผู้ใช้หรือ bot
-
ด้วย CSS และ JavaScript เนื่องจาก Google ไม่สามารถตีความ JavaScript คำสำคัญและลิงก์สามารถถูกใส่ลงในเว็บไซต์ ผ่านฟังก์ชัน สามารถถูกตั้งโปรแกรมเพื่อไม่รบกวนการนำทางของผู้ใช้และโดดเด่นในความสำคัญด้วยหัวข้อ H สำหรับ Google เท่านั้น
-
Redirects ผ่าน redirect ส่งผู้ใช้ที่คลิกบนผลการค้นหาไปยังเว็บไซต์ที่แตกต่าง สามารถตรวจสอบได้ง่ายด้วยปลั๊กอิน "Redirect path" ปัจจุบันเป็นเทคนิค spam ที่ยังใช้ในการหลอกและเสนอคอนเทนต์ที่ขัดแย้ง
-
เทคนิคล่าสุดสามารถถือว่าตามการ พัฒนา SPA (Single Page Application) เพราะหน้าเหล่านี้ถูกพัฒนาด้วย JavaScript และความยากในการ render ที่นำมาให้ Google สามารถตีความโดยเสิร์ชเอนจินเป็นความพยายามหลอก ด้วยปลั๊กอิน "Lighthouse" เราสามารถสังเกตกระบวนการ render ของเว็บไซต์ใน console และเห็นวิธีที่เบราว์เซอร์สามารถประมวลผลไซต์ ตลอดจนสร้างรายงานสมบูรณ์พร้อมคำแนะนำสำหรับการปรับปรุงและโอกาส


มุมมอง Cloaking ในปี 2020
แนวปฏิบัตินี้ล้าสมัยและคุณสามารถถูกลงโทษอย่างรุนแรงโดย Google หากใช้วันนี้ ในขณะที่หลายปีก่อนคุณสามารถหลอกเสิร์ชเอนจิน ปัจจุบันเกือบเป็นไปไม่ได้เนื่องจากการอัปเดตอัลกอริทึมทั้งหมดที่ทำให้ Google เป็นเสิร์ชเอนจินที่เป็นธรรมชาติและมีจริยธรรมมากขึ้นที่เน้นผู้ใช้และเสนอผลการค้นหาคุณภาพที่เน้น search intent
แนวปฏิบัติ Black Hat SEO ถูกตามและลงโทษโดยทีม webspam ที่รับผิดชอบในการลงโทษไซต์ที่ใช้ ถึงขนาดทำให้ทั้งเว็บไซต์หายไปจากผลการค้นหา ดังนั้นเทคนิคนี้มีผลลัพธ์ชั่วคราวอย่างสมบูรณ์
แหล่งที่มาที่ปรึกษา
-
Cyberclick "Cloaking คืออะไร"
-
Luis Villanueva "Cloaking คืออะไร"
-
Ionos "Cloaking คืออะไรและทำไมต้องหลีกเลี่ยง"
-
We live security "Cloaking คืออะไร"
-
Iebschool "การปกปิดหรือ Cloaking SEO คืออะไร"
-
Sistrix "Cloaking คืออะไร"
-
Catchupdates "Cloaking ใน SEO คืออะไรและคุณควรทำ Cloaking หรือไม่"
-
Search Engine Journal "Cloaking คืออะไรและ Cloaking ทั้งหมดชั่วร้ายหรือไม่"
โดย: David Kaufmann

ในช่วง 10+ ปีที่ผ่านมา ผมหมกมุ่นกับ SEO อย่างสมบูรณ์ — และพูดตรง ๆ ก็ไม่อยากให้เป็นแบบอื่น
อาชีพของผมก้าวขึ้นไปอีกระดับเมื่อทำงานเป็นผู้เชี่ยวชาญ SEO อาวุโสที่ Chess.com — หนึ่งใน 100 เว็บไซต์ที่มีผู้เข้าชมมากที่สุดในอินเทอร์เน็ต การทำงานในระดับนี้สอนสิ่งที่ไม่มีหลักสูตรหรือประกาศนียบัตรใดสอนได้
จากประสบการณ์นี้ ผมก่อตั้ง SEO Alive — เอเจนซีสำหรับแบรนด์ที่จริงจังกับการเติบโตแบบออร์แกนิก และเพราะหาเครื่องมือที่จัดการทั้งโลกคลาสสิกและยุค AI ได้ดีไม่ได้ ผมจึงสร้าง SEOcrawl ขึ้น หากคุณกำลังมองหาพาร์ตเนอร์ SEO มากประสบการณ์ที่รักสาขานี้ — ยินดีพูดคุยครับ!
ค้นพบเนื้อหาเพิ่มเติมของผู้เขียนคนนี้

