Skip to content

SEO対策(クローラ)

SEO対策(クローラ)統合版

User-agent: *
Disallow: /private/
Allow: /public/
Sitemap: http://example.com/sitemap.xml
  • User-agent: *
    • このルールがすべてのクローラー(ユーザーエージェント)に適用されることを意味します。*はワイルドカードです。特定のクローラー(例:User-agent: Googlebot)を指定することもできます。
  • Disallow: /private/
    • /private/ディレクトリとその中のすべてのファイルについて、クロールしないよう指示しています。これにより、検索結果に表示されたくないページ(例:管理ページ、ユーザー専用ページ)を保護できます。
  • Allow: /public/
    • /public/ディレクトリのクロールを許可する指示です。Disallowルールがより広範なディレクトリを対象としている場合(例:Disallow: /)に、特定のサブディレクトリだけを例外的に許可するために使用されます。
  • Sitemap: http://example.com/sitemap.xml
    • このサイトのXMLサイトマップファイルの場所をクローラーに伝えます。サイトマップは、クローラーがサイトのすべての重要なページを効率的に発見し、インデックスに登録するのに役立ちます。

注意: robots.txtはあくまで「リクエスト」(お願い)であり、強制力はありません。悪意のあるクローラーや、robots.txtのルールを無視するように設定されたクローラーは、指定されたディレクトリにアクセスする可能性があります。機密性の高い情報は、パスワード保護や他の認証メカニズムで保護する必要があります。

XMLサイトマップは、ウェブサイト上の重要なURLをリストアップしたファイルです。サイトマップをGoogle Search Consoleに登録することで、クローラーが効率的にサイトを巡回し、新しいページや更新されたページを見つけやすくなります。これにより、インデックス登録が促進されます。

なぜXMLサイトマップが必要なのか?

Section titled “なぜXMLサイトマップが必要なのか?”
  • クローラーに新しいページや更新を伝える: サイト内に新しいコンテンツを追加したり、既存のページを更新したりした場合、サイトマップを更新することで、クローラーにその変更を迅速に伝えることができます。
  • サイト構造を理解させる: サイトの階層が複雑な場合でも、サイトマップはクローラーにすべての重要なページを教える地図のような役割を果たします。これにより、内部リンクが少ないページでも発見されやすくなります。
  • 大規模サイトのクロール効率を上げる: 数千、数万ページもあるような大規模サイトでは、すべてのページをクローラーに発見させるのは困難です。サイトマップはクロールバジェットを最適化する上で不可欠なツールとなります。

HTTPレスポンスヘッダーでクローラーへの指示を伝える方法です。robots.txtがファイルやディレクトリ単位でしか制御できないのに対し、X-Robots-Tagはファイル単位でより細かく、強制力のある指示を出せます。

  • noindex: このページを検索エンジンのインデックスに登録しないよう指示
  • nofollow: このページにあるリンクをたどらないよう指示
<IfModule mod_headers>
Header set X-Robots-Tag "noindex, nofollow"
</IfModule>
app.get('/admin', (req, res) => {
res.setHeader('X-Robots-Tag', 'noindex, nofollow');
res.send('管理ページです。');
});

HTMLの<head></head>セクションにmetaタグを挿入することで、特定のページに対するクロール指示を出すことができます。

<head>
<meta name="robots" content="noindex, nofollow" />
</head>
方法制御範囲目的強制力
robots.txtドメイン全体、ディレクトリクロールの制御(サーバー負荷軽減)弱い(お願い)
X-Robots-Tagファイル単位、ページ単位インデックス登録の制御(検索結果からの除外)強い(強制)
meta robotsページ単位インデックス登録の制御(検索結果からの除外)強い(強制)

クロールバジェット(Crawl Budget)

Section titled “クロールバジェット(Crawl Budget)”

クロールバジェットは、検索エンジンのクローラーが特定のサイトで1日にクロールできるURLの数の上限を指します。

  • 無駄なURLを排除: フィルタリングやセッションIDなど、重複または重要ではないURLをrobots.txtでDisallowに設定
  • サイトマップの更新: 主要なページをすべて含んだサイトマップを常に最新の状態に保つ
  • 内部リンクの最適化: 重要なページには、サイト内の他のページから多くの内部リンクを設置

複数のURLで同じコンテンツにアクセスできる場合に、検索エンジンにどのURLが正規であるかを伝えるプロセス。

<head>
<link rel="canonical" href="http://example.com/product/item1">
</head>
RewriteEngine On
RewriteCond %{HTTPS} off
RewriteRule ^(.*)$ https://%{HTTP_HOST}%{REQUEST_URI} [L,R=301]

Node.js (Express) でのリダイレクト例

Section titled “Node.js (Express) でのリダイレクト例”
app.get('/about', (req, res) => {
res.redirect(301, '/about/');
});
  • キーワードの最適化: タイトル、見出し、URL、本文に適切なキーワードを含める
  • メタ情報の最適化: titleタグ、meta descriptionの設定
  • 内部リンクの最適化: 関連性の高いページ同士をリンクでつなぐ
  • サイトの階層構造: 論理的で分かりやすいサイト構造を構築
  • 被リンクの獲得: 他の信頼できるサイトからのリンクを増やす
  • サイテーション: サイト名や会社名が他のサイトで言及されること

3. Googleが重視するその他の要素

Section titled “3. Googleが重視するその他の要素”
  • E-E-A-T(経験・専門性・権威性・信頼性)

    • Experience(経験): 実際にそのトピックを体験した人が書いているか
    • Expertise(専門性): そのトピックに関して専門的な知識を持っているか
    • Authoritativeness(権威性): 業界やユーザーから権威と認められているか
    • Trust(信頼性): 情報が正確で信頼できるか
  • Core Web Vitals

    • LCP (Largest Contentful Paint): ページの主要なコンテンツが表示されるまでの時間
    • FID (First Input Delay): ユーザーが最初に操作した際の応答速度
    • CLS (Cumulative Layout Shift): ページの読み込み中にレイアウトがどれだけずれるか
  • 画像の最適化: WebP形式、遅延読み込み(Lazy Load)
  • レンダリングブロックリソースの削減: CSSのインライン化、JavaScriptの非同期化
  • リッチリザルトの獲得により、検索結果での視認性を向上
  • HTTPS(SSL/TLS)は、Googleがランキング要因として公式に発表

サイトの技術的な健全性(Technical SEO)

Section titled “サイトの技術的な健全性(Technical SEO)”
  • XMLサイトマップ
    • サイト内の重要なページのURLをリスト化し、Google Search Consoleに送信
  • HTTPS化
    • サイトの通信を暗号化し、ユーザーの個人情報を保護
  • Googleビジネスプロフィール: 営業時間、住所、電話番号、レビューを管理
  • NAP情報の統一: Name(名称)、Address(住所)、Phone(電話番号)を統一
  • ローカルキーワードの最適化: 地域名とサービスを組み合わせたキーワード

ユーザーエンゲージメントの向上

Section titled “ユーザーエンゲージメントの向上”
  • 直帰率(Bounce Rate): ユーザーが最初のページを見ただけでサイトを離れる割合
  • 滞在時間(Dwell Time): ユーザーがサイトに滞在する時間
  • クリック率(CTR): 検索結果に表示された際のクリック率
  • hreflangタグ: 同じコンテンツの別言語版や別地域版のURLを指定
  • 地域ターゲティング: 国別ドメインやGoogle Search Consoleでの設定
  • クロール状況の把握: クローラーの挙動を直接的に理解
  • 無駄なクロールの発見: クロールバジェットの最適化
  • 新しいページの発見速度: 改善策の実施
  • 音声検索の最適化: 会話的なキーワードの利用、強調スニペットの獲得
  • セマンティック・サーチへの対応: 関連キーワードや概念を網羅的に含む

SEO対策は、技術的な設定だけでなく、ユーザーにとって価値のあるコンテンツを提供し、サイト全体の品質を高めることが最も重要です。robots.txtはクロールの交通整理係であり、metaタグやX-Robots-Tagは検索エンジンへの強制的な指示だと考えると分かりやすいでしょう。

最終的に、SEOは「検索エンジンは、ユーザーの役に立つサイトを評価する」という根本原則に立ち返り、ユーザーに最高の体験を提供することに注力することが、最も強力なSEO対策になります。