Indexing คืออะไรและ Google index หน้าอย่างไร

Indexing คืออะไรและ Google index หน้าอย่างไร
David Kaufmann
บทเรียน SEO
3 min read

เมื่อพูดถึง indexing ใน SEOเรากำลังอ้างถึงการรวม URL ในดัชนีของเครื่องมือค้นหา

พูดอีกอย่าง หน้าถือว่า index แล้วเมื่อเครื่องมือค้นหารวมในผลการค้นหาไม่คำนึงถึงตำแหน่งที่ครอบครองในขณะนั้น

ความสำคัญใน SEO

ความสัมพันธ์ระหว่าง indexing และ SEOซับซ้อนกว่าที่ดูในตอนแรก

เริ่มแรก URL ต้อง indexเพื่อไล่ตามเป้าหมายการจัดอันดับในผลการค้นหา ไม่ว่าคุณจะเพิ่มประสิทธิภาพหน้าดีเพียงใด หากไม่ index คุณจะไม่ได้รับการเข้าชมจากเครื่องมือค้นหา

ในทางกลับกัน เมื่อหน้าถูก index ตำแหน่งการจัดอันดับถูกกำหนด **ตำแหน่งที่แน่นอนจะขึ้นอยู่กับปัจจัย SEO**on-page และ off-page อื่นๆที่เราทำงานจนถึงจุดนี้

ในปัจจัยเหล่านี้เราสามารถเพิ่มอื่นที่เราสามารถควบคุมได้มากหรือน้อย ขึ้นอยู่กับแต่ละตัว เรากำลังพูดถึง

  • อายุของเว็บไซต์

  • ความเร็วในการเผยแพร่ URL ที่ต้อง index

  • การแข่งขันที่มีอยู่ ฯลฯ

นอกจากนี้ การ index ในระดับเชิงปริมาณยังส่งผลต่อการจัดอันดับ SEOของหน้า ยิ่ง domain มี URL index มาก ยิ่งได้น้ำหนักในเครื่องมือค้นหามากขึ้นเทียบกับคู่แข่ง ตามตรรกะตราบใด URL เหล่านี้คุณภาพสูง ไม่เพียงปริมาณแต่คุณภาพสำคัญ เราถือว่าเป็นจริง

วิธีรู้ว่าหน้าใดที่ฉัน index แล้ว

มีหลายวิธีที่ช่วยรู้ว่ามีหน้าที่ index มากแค่ไหนและตัวใดด้านล่างเราระบุสองที่มีประโยชน์ที่สุด

Search Console

Google Search Console เป็นเครื่องมือที่ใช้กันมากที่สุด ทั้งสำหรับการดูหน้าที่ index และการควบคุมและการจัดการ parameter SEO อื่นของเว็บไซต์

ในส่วน Indexเรามีข้อมูลทั้งหมดที่ต้องการเกี่ยวกับการ index ของเว็บไซต์

รายงาน Coverageเสนอประวัติของหน้าที่ index พร้อมการระบุตัวที่นำเสนอข้อผิดพลาด ตัวที่ถูกตรวจสอบและตัวที่ถูกยกเว้น พร้อมความเป็นไปได้ในการเปรียบเทียบ

indexed pages with Search console
indexed pages with Search console

คำสั่ง Site

วิธีที่รวดเร็วในการตรวจสอบการ index แบบเรียลไทม์ของหน้าเว็บคือคำสั่ง "site:"

เราต้องใช้ในเครื่องมือค้นหาเอง พิมพ์: site:mydomain.comผลการค้นหาจะแสดงทั้งจำนวน URL ที่ index และรายการของทั้งหมด

Site command for indexed pages
Site command for indexed pages

เป็นเรื่องปกติที่จะมีความแตกต่างเล็กน้อยระหว่างผลลัพธ์ Search Console และที่ได้ผ่านคำสั่ง site มักเกิดขึ้นเพราะเวลาที่แต่ละตัวเก็บข้อมูล

วิธี index เนื้อหาเว็บ

สถานการณ์ที่เหมาะสมที่สุดคือเมื่อ URL ถูกเผยแพร่ จะ index โดยอัตโนมัติแต่ความจริงไม่ได้เอื้อมาก

สิ่งที่เกิดขึ้นในทางปฏิบัติคือ Google (เช่นเดียวกับเครื่องมือค้นหาอื่น) ใช้robot การ crawl หลายตัวข้ามอินเทอร์เน็ตเพื่อระบุ URL ที่มีอยู่ ตัวที่ยังคงเสถียร ตัวที่ถูกแก้ไข ตัวที่หายไป และยัง URL ใหม่

หากตรวจพบ URL ใหม่และเว็บไซต์ได้เพิ่มประสิทธิภาพทุกอย่างที่จำเป็นเพื่อสนับสนุนการเข้าถึงของ robot จะวิเคราะห์ URL และหากตรงตามเงื่อนไขพื้นฐาน จะ index และอนุญาตการเผยแพร่ในผลการค้นหา

ดังที่เรากล่าว สิ่งนี้ไม่เกิดขึ้นด้วยความเร็วที่เราต้องการ ในการเร่งการ index URL ใหม่คุณสามารถ

  • ใช้เนื้อหาที่มีผู้เข้าชมมากบนเว็บไซต์เพื่อเพิ่ม internal link ไปยังหน้าเหล่านั้นเพื่อปรับปรุงการ crawl และจึง indexing

  • ใช้ sitemapดังที่เราเอ่ยถึงแล้ว

  • ใช้เครื่องมือ Google Search Console "Inspect URL"

Inspect URLs Search console
Inspect URLs Search console

จากนั้นบังคับการ index ผ่าน "Request indexing"

request indexing with search console
request indexing with search console

  • ผ่านการพูดถึงในโปรไฟล์โซเชียลเช่น Twitter, Facebook ฯลฯ วิธีนี้เคยมีประสิทธิภาพมากกว่า แต่หากเรามีจำนวนผู้ใช้ที่สำคัญที่สร้างการเข้าชมเนื้อหา มักทำงานได้ดี

  • ผ่านโปรแกรม indexingมีหลายตัวในตลาด บางตัวฟรีและส่วนใหญ่ชำระเงิน มักทำงานออนไลน์และมักมีประโยชน์สำหรับการ index URL จำนวนมากแต่เราขอแนะนำวิธีอื่นเป็นการส่วนตัว

จำเป็นต้อง index เนื้อหาทั้งหมดหรือไม่

เราอาจคิดว่า100% ของเนื้อหาออนไลน์ของเรา indexableและยิ่งกว่านั้น ได้ประโยชน์ในทุกทาง แต่นี่ไม่ใช่กรณี

การ index ทุกองค์ประกอบของเว็บไซต์อาจหมายถึงการมี duplicate content, การ index ของหน้าที่ไม่มีคุณค่า ฯลฯ ดังนั้นจึงสำคัญที่จะมีขีดจำกัดการ index

ด้วยเหตุนี้ URL หลายตัวเช่นที่เกี่ยวข้องกับแท็ก หน้ากฎหมาย filter ผลการค้นหาภายใน และคล้ายกัน ถูกยกเว้นจากการ index นี้ในขณะที่ส่วนที่เหลือถูก index อย่างถูกต้อง

Sitemap และการ index

Sitemapแสดงถึงรากฐานของการ index หน้าเว็บ เป็นไฟล์ที่ทำหน้าที่เป็นตัวกลางในการสื่อสารระหว่าง robot ค้นหาและเว็บไซต์ แจ้งให้รู้ว่า URL ใด indexable พวกเขาถูกจัดระเบียบในโครงสร้างเว็บอย่างไร และวันที่อัปเดตล่าสุด

วิธีใช้เพื่อปรับปรุงการ index

มีหลายวิธีในการสร้าง sitemapวันนี้ ที่ง่ายที่สุดคือใช้ประโยชน์จากปลั๊กอินการเพิ่มประสิทธิภาพและการจัดการ SEO ที่รวมตัวเลือกนี้

คุณต้องสร้าง sitemap และอนุญาตการเผยแพร่บน domainโดยปกติในโครงสร้างนี้: mydomain.com/sitemap.xml

หากคุณต้องการรับประกันการ index ที่ดีขึ้นผ่าน sitemapลงทะเบียน domain ใน Google Search Console และในส่วน Index คุณจะเห็นว่ามีส่วน **Sitemap**หากคุณรวมที่อยู่ของ sitemap ตั้งแต่นี้ Google จะมีการเข้าถึงไฟล์ที่ดีขึ้น จะ index URL เร็วขึ้น และคุณจะสามารถติดตามการพัฒนาทั้งหมดของ index นี้จากเครื่องมือออนไลน์นี้

วิธี deindex URL

มีอีกวิธีหนึ่งในการใช้ sitemap เพื่อ deindex URL และอาจดูสวนทางกับแนวคิดของ element นี้ แต่ค่อนข้างมีประโยชน์ ประกอบด้วยการเพิ่มแท็ก noindex ในชุด URL ที่เราต้องการ deindex และอัปโหลดเฉพาะ URL เหล่านี้ใน sitemap ด้วยวิธีนี้ เราจะบังคับให้ Google crawl เร็วขึ้นและเมื่อเห็นแท็ก noindex ดำเนินการ deindex

บทความที่แนะนำ -> วิธี deindex URL จาก Google

ผ่าน Search Console

ใน Google Search Console คุณสามารถขอให้ Google deindex URLในการทำเช่นนี้ คุณต้องเข้าส่วน Index และส่วน URL Removal คุณมีหลายตัวเลือก โดยการลบเนื้อหาเร่งด่วนเป็นที่แนะนำที่สุด

คุณเพียงสร้างคำขอใหม่ รวม URL ที่คุณต้องการ deindexและ Google จะนำมาพิจารณา เพื่อดำเนินการกระบวนการโดยเร็วที่สุด

คำสั่ง Noindex

หากมี URL บางตัวหรือทั้งส่วนที่คุณต้องการป้องกันไม่ให้ indexด้วยคำสั่ง noindex คุณจะสื่อสารให้ Google ว่าไม่ควรนำมาพิจารณาทุกครั้งที่ crawl เว็บไซต์

ดังที่คุณตรวจสอบได้ การ index เล่นบทบาทพื้นฐานในการจัดอันดับ SEO และแนะนำให้ติดตามสถานะการ index ของเว็บไซต์และให้การปฏิบัติที่จำเป็นแก่หน้าต่างๆที่ประกอบเว็บไซต์

โดย: David Kaufmann

David Kaufmann

ในช่วง 10+ ปีที่ผ่านมา ผมหมกมุ่นกับ SEO อย่างสมบูรณ์ — และพูดตรง ๆ ก็ไม่อยากให้เป็นแบบอื่น

อาชีพของผมก้าวขึ้นไปอีกระดับเมื่อทำงานเป็นผู้เชี่ยวชาญ SEO อาวุโสที่ Chess.com — หนึ่งใน 100 เว็บไซต์ที่มีผู้เข้าชมมากที่สุดในอินเทอร์เน็ต การทำงานในระดับนี้สอนสิ่งที่ไม่มีหลักสูตรหรือประกาศนียบัตรใดสอนได้

จากประสบการณ์นี้ ผมก่อตั้ง SEO Alive — เอเจนซีสำหรับแบรนด์ที่จริงจังกับการเติบโตแบบออร์แกนิก และเพราะหาเครื่องมือที่จัดการทั้งโลกคลาสสิกและยุค AI ได้ดีไม่ได้ ผมจึงสร้าง SEOcrawl ขึ้น หากคุณกำลังมองหาพาร์ตเนอร์ SEO มากประสบการณ์ที่รักสาขานี้ — ยินดีพูดคุยครับ!

→ อ่านบทความทั้งหมดของ David
บทความเพิ่มเติม: David Kaufmann

ค้นพบเนื้อหาเพิ่มเติมของผู้เขียนคนนี้