SEOの主要な9つの問題と回避・修正方法

SEOの主要な9つの問題と回避・修正方法
Ognian Mikov
SEO Tutorials
27 min read

SEOは複雑な分野であり、さまざまな要因や手順を正しく実行するために慎重な検討が必要です。誤った方向に進み、ウェブサイトのオーガニックポテンシャルを損なう方法はいくつもあります。

この記事では、最も一般的なSEOの問題と、それらの犠牲にならない方法について取り上げます。同様に、すでにそのような問題に苦しんでいる場合は、それらを正常に修正するお手伝いができます。

まず、基本から始めましょう。

SEOの問題とは?

ウェブサイトの検索エンジンでのパフォーマンスを損なう可能性のあるSEO上の潜在的な問題は、課題として識別されます。Google(およびその他の検索エンジン)で上位にランクするサイトの適切な最適化を確保するために、いくつかの一般的なミスを認識しておくべきです。

内部リンクと外部リンクの破損

ウェブサイトのページが多いほど、リンク切れの可能性が高くなります。サイトが成長し、より多くのコンテンツを生み出し続けると、見過ごされた404ページの危険性が存在します。新機能やランディングページを開発・追加することは良いことですが、内部リンクと外部リンクの問題には常に注意を払う必要があります。

ユーザーとして、機能しないページに到達することは好まないですよね?これは私たちのフローを中断し、しばしばすぐにウェブサイトを離れる結果につながります。

ページが見つかりません 404
ページが見つかりません 404

訪問者はそのウェブページを信頼できないと認識する可能性があります。ご存じの通り、Googleはユーザーがウェブサイト/ページをどう感じるかを特定するのが本当に得意です。したがって、ユーザーが不満であれば、結果的に検索エンジンも不満となります。

さらに、壊れたページは貴重なクロールバジェットを浪費します。それは他の有意義な目的に使用できたものです。ボットがユーザーにアクセスできないページに時間とリソースを費やすのは望ましくありません。

朗報は、さまざまな**SEOツールのおかげで、内部リンクと外部リンクの破損を簡単に特定できる**ことです。当然、ページが少ない小さなウェブサイトであれば、おそらく暗記しているでしょうし、すべてが正常に機能していることを確認するのはそれほど難しくないでしょう。

しかし、ウェブサイトを発展させるにつれて、これを手動で行うことは不可能で、不必要になります。

ヒント: 週または月に1回、定期的なスキャンを実行し、リンク切れを特定したら、深く掘り下げて適切に修正してみてください。

SEOcrawlツールがSEO問題のページをクローラーで分析する様子
SEOcrawlツールがSEO問題のページをクローラーで分析する様子

重複コンテンツ

重複コンテンツは、デジタルマーケティング担当者の間で知られている最も古く、最も一般的な問題の一つです。主な懸念は、Googleを含む検索エンジンに類似のページを提供することで、正しいURLを特定してランク付けするのに苦労する可能性があることです。

その結果、私たち(SEO担当者として)はトラフィックの損失に苦しむか、ウェブサイトから完全な利益を得られない可能性があります。

検索エンジンの専門家として、コンテンツがユニークであることを保証する必要があります。検索エンジンの仕事を楽にするために、いくつかの一般的な落とし穴を避ける必要があります。

重複コンテンツは、同じページの異なるバージョンがユーザーやボットに利用可能になることを許可することで発生する場合がよくあります。例えば、適切なリダイレクトなしにウェブサイトのhttpバージョンとhttpsバージョンの両方が読み込まれることは、よくある問題です。

この潜在的な問題を回避するためには、httpからhttpsへの正しいリダイレクトを設定する必要があります。ブラウザに*http://oursitename.com*と入力することで簡単にテストできます。httpsプロトコルが有効で正しく設定されていれば、ブラウザはhttps://oursitename.comにリダイレクトするはずです。

httpの非セキュアバージョンからhttpsへのリダイレクトを有効にしていないウェブサイトの例
httpの非セキュアバージョンからhttpsへのリダイレクトを有効にしていないウェブサイトの例

同じ方法で、ウェブサイトのメインバージョンがwwwバージョンであれば、non-wwwバージョンwwwバージョンにリダイレクトされる必要があり、その逆も同様です。

chess.comのウェブサイトでのnon-wwwからwwwへのリダイレクト
chess.comのウェブサイトでのnon-wwwからwwwへのリダイレクト

URLのパラメータは、重複URLを引き起こす別の一般的な落とし穴です。コンテンツ管理システムは、サイズ、色、モデルなどのソートパラメータを追加することが多く、結果として同じコンテンツの多数のページができる可能性があります。

AmazonのパラメータURL例
AmazonのパラメータURL例

それでも、必要なときに適切なcanonicalとno-index属性を実装すれば、これは心配する必要はありません。

: canonicalタグは、Googleに似たURLのうちどれをインデックスし、メインとしてカウントするかを伝える人気の方法です。もう一つの方法は、パラメータが同じまたは類似のコンテンツを持つ異なるURLを引き起こす場合にno-index属性を使用することです。

タイトルタグの失敗

タイトルタグは、最も重要なオンサイトSEO要素の一つです。これらは検索エンジンにページのメイントピックが何であるかを伝えます。タイトルタグはまた、各オーガニックリスティングの上に検索結果に表示されます。これにより、これらは重要な要素の一つとなり、ユーザーが特定の結果をクリックする決定要因となることがよくあります。

それらを正しく設定するために時間を取ることは、重要なSEOタスクです。しかし、それが軽視されることがあり、その結果低いクリックスルー率につながります。

タイトルタグの主な問題は次のとおりです:

  • タイトルタグが完全に欠落している

この場合、Googleはページが何についてのものかという理解に基づいてタイトルタグを設定します。通常、このタスクをうまくこなしますが、それでも**逃したSEOチャンス**です。

特に最も重要なページについて、自分でタイトルタグを設定するのは良いことです。

  • 長すぎる/短すぎるタイトルタグ

短いタイトルタグを使用することは、潜在的なユーザーを引き付け、私たちの結果をクリックさせる方法を逃しています。通常の慣行は、検索結果に55〜65文字を表示することです。

逆に、長すぎるタイトルタグ(65文字以上)は、切り捨てられる可能性があり、完全に表示されません。これにより、オンライン世界に私たちのメッセージ全体を見せる機会を逃すという別の状況が生まれます。

Google検索結果で切り捨てられたタイトルとディスクリプション
Google検索結果で切り捨てられたタイトルとディスクリプション

ここでわかるように、タイトルとメタディスクリプションの両方が切り捨てられており、最高のユーザーエクスペリエンスを提供していません。

  • 重複したタイトルタグ

eコマースのウェブサイトで同一のタグを使用することはよくある慣行です。残念ながら、これは他の種類のサイトでもよく見られます。重複したタイトルタグは、ウェブページが他の類似ページと目立ち、差別化することを難しくします。

Screaming Frogの重複タイトルタグを見つける機能
Screaming Frogの重複タイトルタグを見つける機能

Robots.txtの問題

Robots.txtは、検索エンジンクローラーに重要な情報と指示を与える比較的シンプルだが有用なツールです。ウェブサイトのルートディレクトリに配置されており、プレーンテキスト形式を使用しています。

これにより、ウェブサイトの特定のセクションをクロールから防ぐことができ、ボットが貴重なリソースを浪費する必要がなくなります。しかし、認識すべきいくつかの潜在的な間違いがあります。

ステージングサイトと開発サイトまたは管理パネルへのアクセスを許可する

ドメインのテストおよび開発バージョンに検索エンジンが到達するのを止める方法はいくつかあります。一つの方法は、robots.txtファイルでコマンドを使用することですが、より効果的な方法もあります(例: HTTP認証)。

WPサイトで最も一般的なブロック指示の一つは、wp-adminパネルフォルダを除外することです。次のようになります:

User-agent: * Disallow: /wp-admin/

User-agent: * は、その指示がすべてのボットに適用される(Googleボット、Bingボットなど)ことを意味し、2行目は*/wp-admin/*フォルダとその中のすべてをクロールすることを停止したいことを伝えます。

重要なURLをクロールからブロックする

前のコマンドと同様に、ウェブサイト上の重要なフォルダがボットによってアクセスされることを禁止したくありません。例えば、よくある間違いは次のようなものです:

User-agent: * Disallow: /example-important-directory/

または、時には次のようなものさえあります:

User-agent: * Disallow: /

これは基本的に、すべてのボットに対してウェブサイト全体を禁止することを意味します。これは通常、初期テスト中にウェブサイトを世界に「オープン」する前に使用されますが、時々それが軽視され、開発者またはSEO担当者がウェブサイトが検索エンジンとユーザーを含む一般に公開されたときにそれを削除することを忘れることがあります。

サイトマップファイルへのリンクを含めない

Robots.txtは、検索エンジンがウェブサイトのサイトマップファイルを見つけるのを容易にする素晴らしい方法です。これを見落としても大きなエラーではありません(特に小規模なウェブサイトの場合)が、それでも素早く有用なことです。

robots.txtファイルに含まれるサイトマップファイルアドレス
robots.txtファイルに含まれるサイトマップファイルアドレス

メタロボットタグの大失敗

メタロボットは、SEOに関して最も重要なタグおよび全体的な指示の一つです。これは、サイトオーナーが特定のページをフォローまたはインデックスしないように検索エンジンに通知する効果的な方法です。

さまざまなユースケースと設定がありますが、最も人気のある(しばしば危険な)のはnoindexタグです。HTMLのheadセクション内に「存在」し、次のようになります:

<meta name="robots" content="noindex,follow" />

基本的に、これは検索エンジンが私たちのコンテンツを検索結果にインデックスすることを抑制することを意味しますが、そのページのリンクは追跡してほしいことを意味します。検索エンジンがコンテンツをインデックスするのを防ぐことで、さまざまな潜在的な問題を解決できます。例えば:

  • ユーザーに実際の価値を提供しない薄いコンテンツのページ- eコマースウェブサイトのチェックアウトページ- 機密情報を含むURL- 一般公開準備が整っていない開発/ステージングページ

noindexコマンドで起こる最も一般的な問題は、重要なページ(またはウェブサイト全体)が公式にオンラインの世界に正式にローンチする準備ができたときに削除し忘れることです。例えば、開発者が長い間それに取り組み、さまざまなものをテストし、その後、誰かがローンチした後にそれを削除するのを忘れたとしましょう。

間違いなく、これは特定のウェブサイトや特定のセクションがオーガニックトラフィックをもたらしていない理由を疑問に思う場合、最初に行うべき最も簡単なチェックの一つです。

ソースコードを開いて「robots」コマンドを検索(ctrl+f)するだけで済みます。「no index」ディレクティブに気付いた場合は、問題があります!朗報は、その理由を知っていて、簡単に修正する方法を知っているということです。

ソースコード内のメタロボットnoindex
ソースコード内のメタロボットnoindex

Canonicalがうまくいかない

canonicalタグは、SEO担当者の武器庫の中の強力な武器です。これは、異なるURLに存在する類似コンテンツに関する潜在的なSEO問題を回避するためによく使用されます。

例えば、Eコマースマガジンでは、ページに異なるパラメータがあり、重複コンテンツの問題を引き起こす可能性があるのが非常に一般的です。

canonicalを使用すると、検索エンジンに「メイン」/「オリジナル」ページがどれであるかを単純に伝えるので、他のすべてのバージョンが問題を引き起こさないようになります。さらに、Googleは検索結果にどのページを優先して表示するかを知ることができます。

ここで発生する可能性のある問題がいくつかあります。すでに述べたように、その一つは、同じコンテンツを持つ異なるURLがある場合にcanonicalが設定されていないことです。

SEOcrawlクローラーが報告するcanonicalの欠落
SEOcrawlクローラーが報告するcanonicalの欠落

canonicalが設定されている場合、認識すべき最も一般的な危険性は次のとおりです:

  • canonical URLがnoindexタグを持つURLを指している- canonical URLが4xxまたは5xxステータスコードを返すURLを指している- canonical URLがページの非セキュアhttpバージョンを指している(セキュアバージョンも利用可能な場合)- 自己参照しないcanonical(いわゆるcanocalized URL)

: 意図的なものであれば問題ない場合がありますが、ほとんどの場合、自己参照canonicalを希望するでしょう

  • canonicalタグが空、または無効なページを指している

Hreflangの問題

HreflangはページのHTMLコード内のハイパーリンク参照で、特定の言語または地域に割り当てられた代替URLを指定することができます。これらは、異なる国で運営し、異なる言語でコンテンツを提供するウェブサイトにとって特に重要です。

SEOcrawlerツールがseoalive.comドメインのhreflang検査と洞察を表示
SEOcrawlerツールがseoalive.comドメインのhreflang検査と洞察を表示

hreflang参照の背後にある主なアイデアは、ユーザーとその国/言語に応じて正しいウェブサイトバージョンを表示することを確認することです。

例えば、スペインからの訪問者にはウェブサイト/ページの/esバージョンを提供し、ドイツからの訪問者には/deバージョンを提供する、という具合です。

本質的に、私たちはGoogleに通知しているのは、ユーザーの言語設定と場所に応じて、どのページをどの言語で表示すべきかということです。

Hreflangアノテーションは次のようになります:

<link rel="alternate" href="https://www.example.com/es/" hreflang="es" />

最も一般的なhreflangの問題には次のようなものがあります:

  • 戻りリンクの欠落

代替URLは、代替hreflang URLを含むページと同じコードを持つ必要があります。hreflangタグを使用してページXがページYにリンクする場合、ページYはページXに戻ってリンクする必要があります。基本的に、別のページを参照するhreflangコードのすべての行は、追加されるすべてのページで同じコードを持つ必要があります。

  • 検出された言語が指定された言語と一致しない

時々、hreflangタグで指定された言語が実際のページコンテンツと異なる場合があります

  • 間違ったISOコード

イギリスの英語話者ターゲットを設定する際、「en-GB」の代わりに「en-UK」を使用することはよくある間違いです。構文も非常に重要です。多くのウェブサイトがURLで言語を指定するためにアンダースコアを使用していますが、hreflangではダッシュのみが機能します。

  • 自己参照タグの欠落

自己参照hreflangタグを追加することは、国際的なサイトが正しく設定され、検索エンジンに理解しやすいことを保証するために必須です。

  • 絶対URLではなく相対URLを使用する

hreflangのもう一つの一般的な間違いです。パスのみを提供する相対アドレスを避け、常に完全なページパスを使用するべきです。

正しい:

<link rel="alternate" href="https://www.example.com/es/spanish-post" hreflang="es" />

間違い:

<link rel="alternate" href="es/spanish-post" hreflang="es" />

hreflangの問題を特定するための便利なツールは次の通りです - https://technicalseo.com/tools/hreflang/

JavaScriptの危険性

GoogleはJavaScriptがSEOの問題を引き起こすことなく使用できると確認していますが、注意して使用する必要があります。開発者はJSを使用して重要なコンテンツとリンクを読み込むことが多く、これにより検索エンジンがコンテンツを正しくクロールし理解できない状況に陥る可能性があります。

そのため、追加の時間をかけてウェブサイトを検査し、すべての重要な情報が正しく表示されているかどうかを確認することをお勧めします。

例えば、悪いJS実装は、Googleがメタタイトルとディスクリプションを読まない結果をもたらす可能性があり、その後検索結果でのCTRに問題を引き起こします。

SEOcrawlクローラーがページからのタイトルタグの欠落を報告
SEOcrawlクローラーがページからのタイトルタグの欠落を報告

そのため、GoogleがJavaScriptコンテンツをどのように解釈し、情報を適切にクロールしてインデックスできるかどうかを認識することが極めて重要です。

モバイル使用性の問題

ウェブサイトのモバイル使用性とパフォーマンスが現代の最も重要なSEO要因の2つであると言っても、誰も驚かないでしょう。

Googleが*モバイルファーストインデックス*に切り替え、ウェブページのモバイルバージョンを優先的に考慮するようになってから数年が経ちます。

過去に頻繁に見られた主な問題の一つは、デスクトップとモバイルユーザーに異なるコンテンツを表示することでした。これは非常に危険な慣行であり、低いオーガニック結果をもたらす可能性があります。

ウェブサイトのパフォーマンスに影響を与える主な要因の一部は次のとおりです:

  • 大量のプラグイン

大量のプラグインをインストールしないようにしてください。プラグインが多くなるほど、ウェブサイトは重く扱いにくくなります。

さらに、プラグインはハッカーの潜在的な侵入口です(時間内に更新されない場合)、つまりセキュリティリスクとなる可能性もあります。

  • 最適化されていない画像

画像はページ速度とウェブサイトの全体的なパフォーマンスに影響を与える最も一般的な要因の一つです。誰も遅く読み込まれるウェブサイトを楽しまないので、画像は常に100KB未満のサイズに保つことをお勧めします。

Googleからの適切なサイズの画像に関する推奨事項を持つPage Speed Insightsツール
Googleからの適切なサイズの画像に関する推奨事項を持つPage Speed Insightsツール

  • ホスティングサービス

ウェブサイトをホストするサーバーは、すべての構築の基盤であることを考慮してください。したがって、最も安いソリューションを選ばず、将来のトラブルを防ぐ方が良いです。少し多めに投資する価値があるのは、信頼性が高く、安全で速いホスティングサービスを得られると知っているからです。

まとめ

すでに見てきたように、SEOに関しては誤った方向に進む方法はたくさんあります。これらは私たちが遭遇する可能性のある最も人気のある一般的なSEO技術的問題のいくつかに過ぎないことにも注目する価値があります。起こりうるSEOの悪夢は他にもたくさんあります。

これまで、主要なSEO問題と、さらに重要なこととして、それらを回避または修正する方法について、より良いアイデアと理解を得るのにお役に立てたなら幸いです。

幸運を祈ります!

著者: Ognian Mikov

Ognian Mikov

SEOとの出会いは2012年で、それ以来ずっと夢中になっています。私にとってSEOは単なる仕事ではなく、情熱であり趣味でもあり、常に学び続け、成長しようという意欲を与えてくれる存在です。新しいトピックをリサーチしているときも、コンテンツを作っているときも、テクニカルな改善に没頭しているときも、デジタルマーケティングの奥深い世界と、ウェブサイトのパフォーマンスを高めるために存在する無数の可能性に、いつも心を惹かれています。

2021年には、初めてのフルリモート企業となったSEO AliveとSEOcrawlにジョインし、新しいスキルを身につけながら、刺激的なプロジェクトに携わってきました。そして何より、素晴らしい仲間と出会い、多くを学び、その多くが今では友人と呼べる存在になったことが、私にとって一番の財産です。

学歴はMarketingの学士号と、PR & Advertisingの修士号を取得しています。休日は娘と過ごす時間を大切にしながら、チェス、サッカー(Само Левски & Més que un club)、ポーカーをプレーしたり観戦したりして楽しんでいます。

→ Ognian のすべての記事を読む
著者の他の記事: Ognian Mikov

この著者の他のコンテンツをご覧ください