サイトの運営で、検索エンジンがクロールすべきページとそうでないページの区別、できていますか?
たとえば、管理ページや非公開コンテンツまでクローラーが訪れてしまい、余計な負荷がかかっているかもしれません。そんな時に役立つのが ‘robots.txt’ です。
この記事では、SEO対策として重要な役割を果たす ‘robots.txt’ の正しい設定方法を解説し、クローラーに優しいサイト運営をサポートします。
適切に設定することで、不要なページのクロールを防ぎ、検索エンジンからの評価も向上させる秘訣をお届けします!
robots.txtとは?
robots.txt は、検索エンジンのクローラーに対してウェブサイト内の特定のページやディレクトリをクロールするかどうかを指示するためのファイルです。正しく設定することで、不要なページがインデックスされるのを防ぐことができます。
robots.txt の基本的な書き方
全クローラーにすべてのページを許可
すべてのクローラーに対して、すべてのページをクロールさせる場合。
User-agent: *
Disallow:特定のクローラーにすべてのページを許可
例)Googlebot だけに許可する場合。
User-agent: Googlebot
Disallow:全クローラーに特定のディレクトリをクロール禁止
例)/admin/ ディレクトリをクロール禁止にする場合。
User-agent: *
Disallow: /admin/特定のクローラーに特定のページをクロール禁止
例えば、Bingbot に特定のページをクロールさせない場合。
User-agent: Bingbot
Disallow: /private-page.html特定のファイルをクロール禁止
PDF ファイルなど特定のファイル形式をクロール禁止にする場合。
User-agent: * Disallow: /*.pdf$すべてのクローラーにサイト全体をクロール禁止
メンテナンス中などでサイト全体を一時的にクロール禁止にする場合。
User-agent: *
Disallow: /サイトマップの指定
サイトマップの場所を指定することで、クローラーに効率的なクロールを促すことができます。t
Sitemap: https://example.com/sitemap.xmlrobots.txt ファイルの例
例 1: 特定のページやディレクトリをクロール禁止
User-agent: *
Disallow: /admin/
Disallow: /private/
Disallow: /private-page.html
Sitemap: https://example.com/sitemap.xml例 2: 特定のクローラーにだけ制限をかける
User-agent: Googlebot
Disallow: /no-google/
User-agent: Bingbot
Disallow: /no-bing/
Sitemap: https://example.com/sitemap.xml例 3: 画像ファイルやPDFファイルのクロール禁止
User-agent: *
Disallow: /*.jpg$
Disallow: /*.png$
Disallow: /*.pdf$
Sitemap: https://example.com/sitemap.xmlrobots.txt の注意点
- ファイルはサイトのルートディレクトリ(例:
https://example.com/robots.txt)に設置する必要があります。 - クローラーによっては、指示に従わない場合もあります。
Disallowはクロールを防ぎますが、インデックスを防ぐにはnoindexタグを使う必要があります。
Googleアナリティクス4のやさしい教科書。
Astro × GitHub × Cloudflareで学ぶモダンWeb開発
マーケティング手法大全