WordPress Robots.txtをSEO用に最適化する方法

最近、読者の1人がrobots.txtファイルを最適化してSEOを改善する方法のヒントを尋ねました。 Robots.txtファイルは、Webサイトをクロールする方法を検索エンジンに指示し、非常に強力なSEOツールにします。この記事では、SEOに最適なrobots.txtファイルを作成する方法を説明します.


WordPress robots.txtファイルを使用してSEOを改善する

robots.txtファイルとは?

Robots.txtは、サイトのページをクロールしてインデックスに登録する方法を検索エンジンボットに伝えるためにWebサイトの所有者が作成できるテキストファイルです.

通常は、Webサイトのメインフォルダーとも呼ばれるルートディレクトリに保存されます。 robots.txtファイルの基本的な形式は次のとおりです。

ユーザーエージェント:[ユーザーエージェント名]
許可しない:[URL文字列をクロールしない]

ユーザーエージェント:[ユーザーエージェント名]
許可:[クロールするURL文字列]

サイトマップ:[XMLサイトマップのURL]

特定のURLを許可または禁止し、複数のサイトマップを追加するために、複数行の指示を含めることができます。 URLを許可しない場合、検索エンジンボットはURLのクロールが許可されていると見なします.

robots.txtのサンプルファイルは次のようになります。

ユーザーエージェント: *
許可:/ wp-content / uploads /
禁止:/ wp-content / plugins /
禁止:/ wp-admin /

サイトマップ:https://example.com/sitemap_index.xml

上記のrobots.txtの例では、検索エンジンがWordPressのアップロードフォルダー内のファイルをクロールしてインデックスに登録することを許可しています.

その後、クロールおよびインデックス作成プラグインとWordPress管理フォルダーからの検索ボットを禁止しました.

最後に、XMLサイトマップのURLを提供しました.

WordPressサイトにrobots.txtファイルが必要ですか?

robots.txtファイルがない場合でも、検索エンジンはウェブサイトをクロールしてインデックスに登録します。ただし、クロールしてはならないページまたはフォルダーを検索エンジンに通知することはできません。.

これは、ブログを最初に開始するときにはそれほど大きな影響はなく、コンテンツもそれほど多くありません。.

ただし、Webサイトが大きくなり、コンテンツが大量にある場合は、Webサイトのクロールとインデックス作成の方法をより適切に制御する必要があります。.

ここに理由があります.

検索ボットには、各Webサイトのクロール割り当てがあります.

つまり、クロールセッション中に特定の数のページをクロールします。サイトのすべてのページのクロールが完了していない場合、サイトに戻って次のセッションでクロールを再開します.

これにより、ウェブサイトのインデックス作成速度が遅くなる可能性があります.

これを修正するには、WordPress管理ページ、プラグインファイル、テーマフォルダーなどの不要なページを検索ボットがクロールしないようにします。.

不要なページを許可しないことで、クロールクォータを節約できます。これにより、検索エンジンがサイトのさらに多くのページをクロールし、それらをできるだけ早くインデックスに登録できます.

robots.txtファイルを使用するもう1つの理由は、検索エンジンがWebサイトの投稿またはページをインデックスに登録しないようにする場合です。.

これは、コンテンツを一般に公開する最も安全な方法ではありませんが、検索結果に表示されないようにするのに役立ちます。.

理想的なRobots.txtファイルはどのようになるべきか?

多くの人気のあるブログは非常にシンプルなrobots.txtファイルを使用しています。それらのコンテンツは、特定のサイトのニーズに応じて異なる場合があります。

ユーザーエージェント: *
許可しない:

サイトマップ:http://www.example.com/post-sitemap.xml
サイトマップ:http://www.example.com/page-sitemap.xml

このrobots.txtファイルを使用すると、すべてのボットがすべてのコンテンツにインデックスを付け、ウェブサイトのXMLサイトマップへのリンクを提供できます.

WordPressサイトの場合、robots.txtファイルに次のルールを含めることをお勧めします。

ユーザーエージェント: *
許可:/ wp-content / uploads /
禁止:/ wp-content / plugins /
禁止:/ wp-admin /
禁止:/readme.html
禁止:/ refer /

サイトマップ:http://www.example.com/post-sitemap.xml
サイトマップ:http://www.example.com/page-sitemap.xml

これは、すべてのWordPress画像とファイルにインデックスを付けるように検索ボットに指示します。検索ボットがWordPressプラグインファイル、WordPress管理領域、WordPress readmeファイル、およびアフィリエイトリンクをインデックスに登録することを禁止します.

robots.txtファイルにサイトマップを追加すると、Googleボットがサイト上のすべてのページを簡単に見つけられるようになります.

理想的なrobots.txtファイルがどのように見えるかがわかったところで、WordPressでrobots.txtファイルを作成する方法を見てみましょう。.

WordPressでrobots.txtファイルを作成する方法?

WordPressでrobots.txtファイルを作成するには2つの方法があります。あなたに最適な方法を選択できます.

方法1:Yoast SEOを使用してRobots.txtファイルを編集する

Yoast SEOプラグインを使用している場合、robots.txtファイルジェネレーターが付属しています.

これを使用して、WordPress管理領域から直接robots.txtファイルを作成および編集できます。.

単に行く SEO»ツール WordPress管理者のページに移動し、[ファイルエディター]リンクをクリックします。.

Yoast SEOのファイルエディターツール

次のページでは、Yoast SEOページに既存のrobots.txtファイルが表示されます.

robots.txtファイルがない場合は、Yoast SEOがrobots.txtファイルを生成します.

Yoast SEOを使用してrobots.txtファイルを作成する

デフォルトでは、Yoast SEOのrobots.txtファイルジェネレーターはrobots.txtファイルに次のルールを追加します。

ユーザーエージェント: *
許可しない:/

です 重要 このテキストを削除すると、すべての検索エンジンがWebサイトをクロールできなくなります。.

デフォルトのテキストを削除したら、先に進んで独自のrobots.txtルールを追加できます。上記で共有した理想的なrobots.txt形式を使用することをお勧めします.

完了したら、[robots.txtファイルを保存]ボタンをクリックして変更を保存することを忘れないでください.

方法2. FTPを使用してRobots.txtファイルを手動で編集する

この方法では、FTPクライアントを使用してrobots.txtファイルを編集する必要があります.

FTPクライアントを使用してWordPressホスティングアカウントに接続するだけ.

中に入ったら、ウェブサイトのルートフォルダにあるrobots.txtファイルを確認できます.

FTPを使用したWordPress robots.txtファイルの編集

表示されない場合は、robots.txtファイルがない可能性があります。その場合は、先に進んで作成できます.

FTPを使用してrobots.txtファイルを作成する

Robots.txtはプレーンテキストファイルです。つまり、コンピューターにダウンロードして、メモ帳やTextEditなどのプレーンテキストエディターを使用して編集できます。.

変更を保存したら、ウェブサイトのルートフォルダにアップロードして戻すことができます.

Robots.txtファイルをテストする方法?

robots.txtファイルを作成したら、robots.txtテスターツールを使用してそれをテストすることを常にお勧めします.

robots.txtテスターツールは多数ありますが、Google Search Console内のツールを使用することをお勧めします.

Google Search Consoleアカウントにログインして、古いGoogle Search Consoleウェブサイトに切り替えるだけです.

以前のGoogle Search Consoleに切り替える

これにより、古いGoogle Search Consoleインターフェースに移動します。ここから、[クロール]メニューにあるrobots.txtテスターツールを起動する必要があります.

Robots.txtテスターツール

このツールは、ウェブサイトのrobots.txtファイルを自動的にフェッチし、エラーや警告が見つかった場合は強調表示します.

最終的な考え

robots.txtファイルを最適化する目的は、一般に公開されていないページを検索エンジンがクロールしないようにすることです。たとえば、wp-pluginsフォルダー内のページまたはWordPress管理フォルダー内のページ.

SEOエキスパートの間の一般的な神話は、WordPressのカテゴリ、タグ、およびアーカイブページをブロックすると、クロール速度が向上し、インデックス作成が高速になり、ランキングが高くなるというものです。.

本当じゃない。また、Googleのウェブマスター向けガイドラインにも違反しています.

上記のrobots.txt形式に従って、ウェブサイト用のrobots.txtファイルを作成することをお勧めします.

この記事が、WordPressのrobots.txtファイルをSEO向けに最適化する方法の学習に役立つことを願っています。私たちの究極のWordPress SEOガイドとあなたのウェブサイトを成長させるための最高のWordPress SEOツールを見ることもできます.

Jeffrey Wilson Administrator
Sorry! The Author has not filled his profile.
follow me
    Like this post? Please share to your friends:
    Adblock
    detector
    map