9 בעיות SEO מובילות ואיך להימנע או לתקן אותן

9 בעיות SEO מובילות ואיך להימנע או לתקן אותן
Ognian Mikov
מדריכי SEO
12 min read

SEO היא דיסציפלינה מורכבת שדורשת התחשבות זהירה לגורמים ולהליכים שונים כדי שיהיו מיושמים נכון. יש דרכים שונות שבהן אנחנו יכולים לטעות ולפגוע בפוטנציאל האורגני של אתר.

בפוסט הזה, אנחנו הולכים לכסות את בעיות ה-SEO הנפוצות ביותר ואיך להימנע ליפול קורבן שלהן. בנוסף, אם אתה כבר נאבק עם בעיות כאלה, נוכל לעזור לך לתקן אותן בהצלחה.

ראשית, בוא נתחיל עם היסודות.

מה הן בעיות SEO?

בעיית SEO פוטנציאלית שיכולה לפגוע בביצועי האתרים שלנו במנועי החיפוש, יכולה להיות מזוהה כבעיה. כדי להבטיח אופטימיזציה מתאימה של אתרים שמדורגים גבוה ב-Google (ובמנועי חיפוש אחרים), עלינו להיות מודעים לכמה טעויות נפוצות.

קישורים פנימיים וחיצוניים שבורים

ככל שיש לאתר יותר דפים, כך הסיכויים גבוהים יותר לקישורים שבורים. כשאתר ממשיך לצמוח ולייצר יותר תוכן, קיימת סכנה של דפי 404 שלא הבחינו בהם. למרות שזה טוב לפתח ולהוסיף תכונות חדשות ו-landing pages, עלינו תמיד לתת תשומת לב לבעיות עם קישורים פנימיים וחיצוניים.

אנחנו, כמשתמשים, לא אוהבים להגיע לדף שלא עובד, נכון? זה מקטיע את הזרימה שלנו ולעיתים קרובות מסתיים בעזיבת האתר מיד.

page not found 404
page not found 404

מבקרים יכולים לתפוס את הדף כלא אמין. כפי שאנחנו יודעים, Google ממש טובה בזיהוי תפיסות משתמשים של אתר/דף. לכן, אם משתמשים לא מאושרים, בהתאם גם מנועי החיפוש לא יהיו מאושרים.

יותר מזה, דפים שבורים מבזבזים crawl budget יקר שיכול להיות בשימוש אחרת ביעילות. אנחנו לא רוצים שהבוטים יבזבזו זמן ומשאבים על דפים שלא נגישים למשתמשים.

החדשות הטובות הן שאנחנו יכולים לזהות בקלות קישורים פנימיים וחיצוניים שבורים בזכות כלי SEO שונים. באופן טבעי, אם יש לנו אתר קטן יותר עם רק כמה דפים, אנחנו כנראה נדע אותם בעל פה ולא יהיה כל כך קשה לוודא שהכול עובד טוב.

עם זאת, ככל שאנחנו מפתחים את האתרים שלנו, זה הופך לבלתי אפשרי ובלתי נחוץ לעשות את זה ידנית.

טיפ: הרץ סריקות מתוזמנות פעם בשבוע או חודש ואם אתה מזהה קישורים שבורים, חפור עמוק יותר ונסה לתקן אותם בהתאם.

כלי SEOcrawl איך הקראולרים מנתחים דף לבעיות seo
כלי SEOcrawl איך הקראולרים מנתחים דף לבעיות seo

תוכן משוכפל

תוכן משוכפל הוא אחת הבעיות הוותיקות והנפוצות ביותר המוכרות בקרב משווקים דיגיטליים. הדאגה העיקרית היא שעל ידי הספקת דפים דומים למנועי חיפוש, כולל Google, הם עשויים להתקשות לזהות ולדרג את ה-URL-ים הנכונים.

כתוצאה, אנחנו (כאנשי SEO) עלולים לסבול מאובדן תעבורה או פשוט לא לקבל את התועלת המלאה מהאתרים שלנו.

אנחנו כמקצוענים של מנוע חיפוש צריכים לוודא שהתוכן שלנו ייחודי. כדי להפוך את החיים של מנועי החיפוש לקלים יותר, עלינו להימנע מכמה מלכודות נפוצות.

לעיתים קרובות תוכן משוכפל מתרחש בגלל אפשור גרסאות שונות של אותו דף להיות זמינות למשתמשים ובוטים. לדוגמה, להחזיק גם את גרסאות ה-http וגם את גרסאות ה-https של אתר שנטענות בלי הפניות מחדש מתאימות זו בעיה פופולרית.

כדי להימנע מהבעיה הפוטנציאלית הזו, נצטרך לקבוע את הפניות מחדש הנכונות מ-http ל-https. נוכל לבדוק את זה בקלות על ידי הקלדת http://oursitename.com בדפדפן. במקרה שפרוטוקול ה-https שלנו מופעל ומוגדר נכון, הדפדפן צריך להפנות אותנו ל-https://oursitename.com.

דוגמה לאתר שלא הפעיל את ההפניה מחדש של גרסת http לא בטוחה ל-https
דוגמה לאתר שלא הפעיל את ההפניה מחדש של גרסת http לא בטוחה ל-https

באותה דרך, גרסת ה-non-www של אתר צריכה להפנות לגרסת www, אם זו הגרסה הראשית של האתר שלנו ולהיפך.

הפניה מחדש מגרסת non-www לגרסת www של אתר עבור chess.com
הפניה מחדש מגרסת non-www לגרסת www של אתר עבור chess.com

פרמטרים ב-URLs הם מלכודת נפוצה נוספת שגורמת ל-URLs משוכפלים. מערכות ניהול תוכן לעיתים קרובות מוסיפות פרמטרי מיון (לגודל, צבע, דגם וכו') שיכולים לגרום למספר רב של דפים עם אותו תוכן.

דוגמת פרמטרים ב-URL מ-Amazon
דוגמת פרמטרים ב-URL מ-Amazon

עדיין, זה לא משהו לדאוג ממנו בהנחה שאנחנו מיישמים קנוניים מתאימים ותכונות no-index כשצריך.

הערה: תגי קנוני הם דרך פופולרית לומר ל-Google איזה סט של URL-ים דומים לאנדקס ולספור כראשי. דרך נוספת היא להשתמש בתכונת no-index כשפרמטרים גורמים ל-URL-ים שונים עם אותו תוכן או דומה.

כשלים בתג Title

תגי Title הם בין רכיבי ה-SEO on-site החשובים ביותר. הם מודיעים למנועי החיפוש מה הנושא הראשי של דף. תגי Title גם מוצגים בתוצאות החיפוש בראש כל רישום אורגני. זה הופך אותם לאחד הרכיבים המרכזיים ולעיתים קרובות גורם מכריע למשתמשים ללחוץ על תוצאה ספציפית.

לקיחת הזמן להגדיר אותם נכון היא משימת SEO קריטית. עם זאת, לפעמים זה הוזנח מה שגורם לשיעורי קליק נמוכים.

הבעיות העיקריות עם תגי title הן:

  • חסרים תגי title לחלוטין

במקרה הזה, Google תקבע תג title על בסיס ההבנה שלה על מה הדף שלנו. בדרך כלל, היא מתמודדת עם המשימה הזו טוב, אבל עדיין, זו הזדמנות SEO שהוחמצה.

זה טוב לקבוע תגי title בעצמנו, במיוחד עבור הדפים החשובים ביותר שלנו.

  • תגי title ארוכים/קצרים מדי

שימוש בתגי title קצרים היא דרך שהוחמצה למשוך משתמשים פוטנציאליים ולהביא אותם ללחוץ על התוצאות שלנו. הפרקטיקה הרגילה היא שיהיו בין 55-65 סמלים מוצגים בתוצאות החיפוש.

לעומת זאת, תגי title ארוכים מדי (מעל 65 סמלים), עלולים להיחתך ולא להיות מוצגים במלואם. זה יצור הזדמנות נוספת שהוחמצה להציג את כל ההודעה שלנו לעולם המקוון.

title ותיאור חתוכים בתוצאות החיפוש של Google
title ותיאור חתוכים בתוצאות החיפוש של Google

כפי שאנחנו יכולים לראות כאן, גם ה-title וגם המטא-תיאור חתוכים, ובכך לא מספקים את חוויית המשתמש הטובה ביותר.

  • תגי title משוכפלים

זו פרקטיקה נפוצה לאתרי e-commerce שיהיו תגים זהים. זה לעיתים קרובות גם המקרה עם סוגים אחרים של אתרים, למרבה הצער. תגי title משוכפלים מקשים על דפים לבלוט ולהבדיל את עצמם מדפים דומים אחרים.

תכונת Screaming Frog למצוא תגי title משוכפלים
תכונת Screaming Frog למצוא תגי title משוכפלים

בעיות Robots.txt

Robots.txt הוא כלי פשוט יחסית אבל שימושי שנותן מידע והוראות חשובים לקראולרים של מנועי חיפוש. הוא ממוקם בספריית השורש של האתרים ומשתמש בפורמט plain text.

הוא יכול למנוע מחלקים מסוימים של האתר שלנו מלהיסרק, כך שבוטים לא צריכים לבזבז משאבים יקרים. עם זאת, יש כמה טעויות פוטנציאליות שעלינו להיות מודעים אליהן.

הענקת גישה לאתרי Staging ו-Dev או לפאנלי Admin

יש כמה דרכים לעצור מנועי חיפוש מלהגיע לכל גרסת בדיקה ופיתוח של הדומיין שלך. אחת הדרכים היא להשתמש בפקודה בקובץ ה-robots.txt שלך, למרות שיש דרכים יעילות יותר לעשות זאת (למשל HTTP authentication).

אחת ההוראות החסימות הנפוצות ביותר עבור אתרי WP היא להחריג את תיקיית פאנל wp-admin. כך זה נראה:

User-agent: * Disallow: /wp-admin/

User-agent: * אומר שההוראה חלה לכל הבוטים (Google bot, Bing bot וכו') והשורה השנייה אומרת שאנחנו רוצים לעצור אותם מסריקת תיקיית /wp-admin/ וכל מה שנמצא בה.

חסימת URL-ים חשובים מסריקה

דומה לפקודה הקודמת, אנחנו לא רוצים לאסור על כל תיקיות חשובות באתר שלנו מלהיות נגישות לבוטים. לדוגמה, טעות נפוצה יכולה להיות:

User-agent: * Disallow: /example-important-directory/

או לפעמים אנחנו אפילו עלולים לקבל את זה:

User-agent: * Disallow: /

שזה בעיקרון אומר לאסור את האתר כולו עבור כל הבוטים. זה בדרך כלל נעשה לפני "פתיחת" האתר לעולם במהלך בדיקות התחלתיות. עם זאת, לפעמים זה מוזנח וDEVs או SEOs שוכחים להסיר את זה כשהאתר זמין לציבור, כולל מנועי חיפוש ומשתמשים.

לא כולל קישור לקובץ Sitemap

Robots.txt היא דרך נהדרת להפוך את זה לקל יותר למנועי חיפוש למצוא את קובץ ה-sitemap של אתר. למרות שזו לא טעות גדולה אם נחמיץ את זה (במיוחד עבור אתרים קטנים יותר), זה עדיין דבר מהיר ושימושי לעשות.

כתובת קובץ Sitemap נכללה בקובץ robots.txt
כתובת קובץ Sitemap נכללה בקובץ robots.txt

אסונות תג Meta Robots

Meta robots הוא אחד התגים החשובים ביותר וההוראות בכלל בכל הקשור ל-SEO. זו דרך יעילה לבעלי אתרים להודיע למנועי החיפוש שדף מסוים לא צריך להיות מאוקב או מאונדקס.

יש מקרי שימוש וקונפיגורציות שונים, אבל הפופולרי ביותר (ולעיתים קרובות מסוכן) הוא תג noindex. הוא "חי" בקטע ה-head של ה-HTML ונראה כך:

<meta name="robots" content="noindex,follow" />

בעיקרון, זה אומר שאנחנו מרתיעים מנועי חיפוש מאינדקס התוכן שלנו בתוצאות החיפוש, אבל אנחנו רוצים שהם יעקבו אחר הקישורים בדף הזה. אנחנו יכולים לפתור בעיות פוטנציאליות שונות על ידי מניעת מנועי חיפוש מאינדקס תוכן. לדוגמה:

  • דפים עם thin content שלא מספקים ערך אמיתי למשתמשים- דפי checkout באתרי eCommerce- URL-ים שמכילים מידע רגיש- דפי dev/staging שלא מוכנים להיות מושקים לציבור

הבעיה הנפוצה ביותר שקורית עם פקודת noindex היא לשכוח להסיר אותה עבור דף חשוב (או האתר כולו) בכל פעם שהוא מוכן להיות מושק רשמית לעולם המקוון. נניח ש-DEVs עבדו עליו זמן רב, בדקו דברים שונים ואז מישהו פשוט שוכח להסיר אותו ברגע שהוא הושק.

ללא ספק, זו אחת הבדיקות הראשונות (והפשוטות ביותר) לעשות אם אתה תוהה למה אתר מסוים או קטע ספציפי לא מביא תעבורה אורגנית.

אתה רק צריך לפתוח את קוד המקור ולחפש (ctrl+f) את פקודת ה-"robots". אם אתה מבחין בהוראת "no index" אז אתה בצרות! החדשות הטובות הן שאתה יודע את הסיבה עכשיו ואיך לתקן את זה בקלות.

meta robots noindex בקוד המקור
meta robots noindex בקוד המקור

קנוניים יוצאים לא בסדר

תג הקנוני הוא נשק חזק בארסנל של אנשי SEO. הוא לעיתים קרובות בשימוש כדי להימנע מבעיות SEO פוטנציאליות עם תוכן דומה שקיים ב-URL-ים שונים.

לדוגמה, זה מאוד נפוץ במגזיני E-commerce עם פרמטרים שונים בדפים שיכולים פוטנציאלית לגרום לבעיות תוכן משוכפל.

עם הקנוני, אנחנו פשוט אומרים למנועי חיפוש מהו הדף ה"ראשי" / "מקורי", כך שכל הגרסאות האחרות לא יוצרות בעיות. יתר על כן, Google תדע איזה דף לתעדף ולהציג בתוצאות החיפוש.

יש כמה בעיות שיכולות להתרחש כאן. אחת מהן, כפי שכבר הוזכר, היא לא לקבוע קנוני כשיש לך URL-ים שונים עם אותו תוכן.

קנוני חסר שדווח על ידי הקראולר של SEOcrawl
קנוני חסר שדווח על ידי הקראולר של SEOcrawl

במקרה שקנוני נקבע, אלה הסכנות הנפוצות ביותר להיות מודע אליהן:

  • URL קנוני מצביע ל-URL עם תג noindex- URL קנוני מצביע ל-URL שמחזיר קוד סטטוס 4xx או 5xx- URL קנוני מצביע לגרסת ה-http הלא בטוחה של דף (כשיש לנו גם את הגרסה הבטוחה זמינה)- קנוני שלא מתייחס לעצמו (ה-URL שנקרא canocalized)

הערה: זה יכול להיות בסדר במקרה שזה מכוון, למרות שברוב המקרים נרצה קנוניים שמתייחסים לעצמם

  • תג קנוני ריק או מצביע לדף לא תקין

בעיות Hreflang

Hreflangs הם הפניות hyperlink בקוד ה-HTML של דף שמאפשרות לנו לציין URL-ים חלופיים המוקצים לשפה או אזור מסוימים. הם חשובים במיוחד לאתרים שפועלים במדינות שונות ומגישים תוכן בשפות שונות.

הכלי SEOcrawler מראה בדיקת hreflang ותובנות עבור הדומיין seoalive.com
הכלי SEOcrawler מראה בדיקת hreflang ותובנות עבור הדומיין seoalive.com

הרעיון העיקרי מאחורי הפניות hreflang הוא לוודא שאנחנו מציגים את גרסת האתר הנכונה בהתאם למשתמשים ולמדינה/שפה שלהם.

לדוגמה, עבור המבקרים הספרדים, אנחנו רוצים לספק את גרסת ה-/es של אתר/דף, עבור המבקרים הגרמנים, זה צריך להיות /de וכן הלאה.

בעצם, אנחנו מודיעים ל-Google איזה דף ובאיזו שפה הוא צריך להיות מוצג למשתמשים, בהתאם להגדרות השפה והמיקום שלהם.

הערות hreflang נראות כך:

<link rel="alternate" href="https://www.example.com/es/" hreflang="es" />

בעיות ה-hreflang הנפוצות ביותר כוללות:

  • חסר קישור חזרה

URL-ים חלופיים צריכים להחזיק את אותו קוד כמו הדף שמכיל URL-ים חלופיים של hreflang. בעת שימוש בתג hreflang ודף X מקשר לדף Y, דף Y חייב לקשר חזרה לדף X. בעיקרון, כל שורה של קוד hreflang שמתייחסת לדף אחר צריכה לקבל את אותו קוד בכל דף שהיא מתווספת אליו.

  • שפה שזוהתה לא תואמת לשפה שצוינה

לפעמים השפה שצוינה בתגי ה-hreflang שונה מתוכן הדף בפועל

  • קודי ISO לא נכונים

טעות פופולרית היא שימוש ב-"en-UK" במקום "en-GB" בעת מיקוד מבקרים דוברי אנגלית בבריטניה. גם התחביר חשוב מאוד. למרות שהרבה אתרים משתמשים בקווים תחתונים כדי לציין שפות ב-URL-ים שלהם, רק מקפים עובדים עבור hreflangs.

  • חסר תג שמתייחס לעצמו

הוספת תג hreflang שמתייחס לעצמו היא חובה להבטחת שאתרים בינלאומיים מוגדרים נכון וקלים להבנה על ידי מנועי החיפוש.

  • שימוש ב-URL-ים יחסיים במקום מוחלטים

טעות נפוצה נוספת עם hreflangs. עלינו להימנע מכתובות יחסיות שמספקות רק נתיב ותמיד ללכת על נתיב הדף המלא.

נכון:

<link rel="alternate" href="https://www.example.com/es/spanish-post" hreflang="es" />

לא נכון:

<link rel="alternate" href="es/spanish-post" hreflang="es" />

הנה כלי שימושי אחד לזיהוי בעיות hreflang- https://technicalseo.com/tools/hreflang/

סכנות JavaScript

למרות ש-Google מאשרת ש-JavaScript יכול להיות בשימוש מבלי לגרום לבעיות SEO, עלינו להיות זהירים איתו. לעיתים קרובות, מפתחים משתמשים ב-JS לטעון תוכן וקישורים חשובים וזה עשוי למצוא אותנו במצב שבו מנועי חיפוש לא מסוגלים לסרוק ולהבין את התוכן נכון.

לכן, מומלץ לבזבז זמן נוסף ולבדוק את האתרים שלנו לראות אם כל המידע החשוב מוצג כראוי.

לדוגמה, יישום JS גרוע יכול לגרום ל-Google לא לקרוא את meta titles ותיאורים שהגדרנו, מה שאז יוצר בעיות עם ה-CTR שלנו בתוצאות החיפוש.

הקראולר של SEOcrawl מדווח על תג title חסר מדף
הקראולר של SEOcrawl מדווח על תג title חסר מדף

לכן זה קריטי חשוב להיות מודעים לפרשנות של Google על תוכן ה-JavaScript שלנו ואם הם מסוגלים לסרוק ולאנדקס נכון את המידע.

בעיות שימושיות מובייל

זה כנראה לא יפתיע אף אחד אם נאמר שהשימושיות והביצועים של אתר במובייל הם שניים מהגורמים החשובים ביותר ל-SEO היום.

זה כמה שנים מאז ש-Google עברה ל-mobile-first indexing ולוקחת בחשבון את גרסת המובייל של דף עם עדיפות.

אחת הבעיות העיקריות שנראתה לעיתים קרובות יותר בעבר, הייתה הצגת תוכן שונה למשתמשי דסקטופ ומובייל. זו פרקטיקה מאוד מסוכנת ויכולה לגרום לתוצאות אורגניות נמוכות יותר.

חלק מהגורמים העיקריים שיכולים להשפיע על ביצועי האתר כוללים:

  • מספר רב של תוספים

נסה להישאר רחוק מלהתקין מספר רב של תוספים. ככל שיש לך יותר תוספים, האתר שלך הופך לכבד וגושמני יותר.

יותר מזה, תוספים הם נקודת הכניסה הפוטנציאלית להאקרים (כשלא מתעדכנים בזמן), אז הם עשויים גם להציג סיכון אבטחה.

  • תמונות לא מותאמות

תמונות הן אחד הגורמים הנפוצים ביותר שמשפיעים על מהירות הדפים והביצועים הכוללים של אתר. אף אחד לא נהנה מאתרים שנטענים לאט, אז אנחנו תמיד ממליצים לנסות לשמור את התמונות פחות מ-100 kb בגודל.

הכלי Page Speed Insights מ-Google עם המלצות לגודל תמונות נכון
הכלי Page Speed Insights מ-Google עם המלצות לגודל תמונות נכון

  • שירותי אחסון

קח בחשבון שהשרת שבו אתה מאחסן את האתר שלך הוא הבסיס שעליו הכול ייבנה. לכן, עדיף לא ללכת על הפתרון הזול ביותר ולחסוך לעצמך צרות בעתיד. שווה להשקיע קצת יותר אבל בידיעה שבתמורה תקבל שירות אחסון אמין, בטוח ומהיר.

לסיכום

כפי שכבר ראינו, יש דרכים רבות להיכשל בכל הקשור ל-SEO. ראוי גם לציין שאלה רק כמה מהפופולריות והנפוצות ביותר בעיות SEO טכניות שאנחנו עלולים להיתקל בהן. יש עוד הרבה סיוטי SEO שיכולים לקרות.

מקווים שעזרנו לך עד כה לקבל מושג והבנה טובים יותר של בעיות ה-SEO העיקריות ומה שעוד יותר חשוב - איך להימנע או לתקן אותן.

בהצלחה!

מאת: Ognian Mikov

Ognian Mikov

SEO נכנס לחיי ב-2012, ומאז אני חי אותו עם תשומת לב מלאה. SEO מבחינתי הוא יותר מסתם עבודה — זה תשוקה ותחביב שמניעים אותי ללמוד ולהתפתח כל הזמן. בין אם אני חוקר נושא חדש, יוצר תוכן או מתעמק בתיקונים טכניים, העולם הרחב של שיווק דיגיטלי וההזדמנויות האינסופיות לשפר ביצועי אתרים תמיד מרתקים אותי.

יש לי תואר ראשון בשיווק ותואר שני ביחסי ציבור ופרסום. בזמני הפנוי אני אוהב לבלות עם הבת שלי ולשחק או לצפות בשחמט וכדורגל (Само Левски ו-Més que un club) ופוקר.

→ קרא את כל המאמרים של Ognian
מאמרים נוספים: Ognian Mikov

גלה תוכן נוסף של מחבר זה