WordPressのrobots.txtファイルを効果的に編集する方法をご存知ですか?この小さくても強力なファイルは、検索エンジンのクロールボットにとってロードマップのようなもので、サイトのどの部分を巡回すべきか、巡回すべきでないかを示します。このファイルを制御することで、検索エンジンが最も重要なページに集中し、サイトの速度とSEOランキングを向上させることができます。
WordPressはサイト用のrobots.txtファイルを自動生成しますが、必ずしも特定のニーズを満たしているとは限りません。検索エンジンが望む情報だけを認識できるように、ファイルを微調整する必要がある場合もあります。.
robots.txt の編集が難しそうに思える方もご安心ください。まさにうってつけのガイドです!このガイドでは、robots.txt ファイルの役割、重要性、そしてWordPress ウェブサイト。さあ、始めましょう。
WordPressのRobots.txtファイルについて

WordPressのrobots.txtファイルについてお話しましょう。想像するよりもずっと簡単です!このプレーンテキストファイルはウェブサイトのルートディレクトリに配置され、ウェブロボット(ボット)に一連の指示を与えます。つまり、サイトのどの部分を探索してインデックスすべきか、あるいはすべきでないかを伝えるのです。
検索エンジンに一連のガイドラインを与えるようなものだと考えてください。例えば、Googleのクローラー( Googlebot )は、検索インデックスを更新するためにウェブサイトを頻繁にチェックします。あなたのサイトにアクセスすると、robots.txtファイルを参照して、何をすべきか指示を得ます。
このファイルの主な目的は、ウェブサイト所有者であるあなたが、検索エンジンがアクセスできる情報を制御できるようにすることです。このファイルを使用することで、サイト上の特定のページやディレクトリへのボットのクロールをブロックできます。ただし、すべてのボットがルールを守るわけではないことに注意してください。Googleのような信頼できるボットはガイドラインに従っていますが、一部の悪質なボットはガイドラインを無視する可能性があります。.
探索:クローラーリスト - SEOに最適なウェブクローラーを探る
WordPress で robots.txt ファイルを編集する必要があるのはなぜですか?
WordPressサイトのrobots.txtファイルを編集する必要があるのはなぜでしょうか?実は、そうするべき理由はいくつかあります。詳しく見ていきましょう。
サイトの速度を向上させる

ウェブサイトのすべてのページを検索エンジンボットにクロールさせる必要はありません。不要なページをスキップするようにボットに指示することで、リソースを解放し、サイトの読み込み速度を向上させる。ウェブサイトの読み込み速度が速いほど、訪問者の満足度が向上するだけでなく、検索結果のランキングも向上します。
サーバーパフォーマンスの最適化

ウェブサイトの成功に貢献しないボットは、サーバーのリソースを浪費し、 404エラー。robots.txtファイルを編集することで、これらの不要なボットをブロックし、サーバーの効率的な運用を維持し、パフォーマンスを向上させることができます。
機密情報を保護する

ウェブサイトの特定の部分(管理ページ、プライベートドキュメント、機密コンテンツなど)は、検索エンジンにインデックスされるべきではありません。robots.txtファイルを使用すると、ボットにこれらの領域を回避させるように指示することができ、プライバシーとセキュリティの保護に役立ちます。.
学ぶ: Search Console で「ページがインデックスされない新たな理由」の問題を修正する方法
ボットを適切なコンテンツに誘導する

コンテンツに誘導できます。これにより、インデックス登録の優先順位が決まり、検索結果で上位に表示される可能性が高まります。
重複コンテンツの問題を回避する

カテゴリーページやタグページなどの重複コンテンツは、検索エンジンを混乱させ、SEOランキングに悪影響を及ぼす可能性があります。robots.txtファイルを適切に最適化することで、ボットによるこれらのページのインデックス登録を防ぎ、サイトのコンテンツをクリーンで検索エンジンフレンドリーな状態に保つことができます。.
関連: WordPressで重複したタイトルタグを修正してSEOを改善する方法
WordPressでRobots.txtファイルを編集する3つの方法
さて、WordPress の Robots.txt ファイルの機能を理解できたので、3 つの簡単な方法でそれを編集する方法を見てみましょう。.
それぞれの方法をステップバイステップで解説します。ただし、FTPクライアントまたはcPanelを使用する場合は、まずrobots.txtファイルを手動で作成する必要があることにご注意ください。それでは始めましょう!
FTPクライアントを使用してRobots.txtを編集する

WordPressのrobots.txtファイルをFTPクライアントで編集するには、FTPクライアントをセットアップし、ウェブサイトに接続する必要があります。FileZillaやCyberduckを使用します。
ステップ 1: WordPress ウェブサイトを FTP に接続します。.
- まず、パソコンにFileZillaをインストールします。インストールが完了したら、アプリを開き、 「ファイル」>「サイトマネージャー」(またはショートカットとしてCtrl+Sを押します)。
- 次に、 「新しいサイト」、「マイサイト」の下に名前を付けます。
- 次に、 「一般」タブに切り替えて、サイトの認証情報を入力します。これらの認証情報は通常、ホスティングプロバイダーのダッシュボードに記載されています。
- 資格情報を入力したら、 「接続」をクリックします。
これでログインできました!FTPクライアントにサイトのファイルディレクトリが表示されます。robots.txtファイルのアップロードに進みましょう。.
ステップ2:Robots.txtファイルをWordPressにアップロードする
- ウェブサイトのルートディレクトリ(通常はpublic_html)に移動します。robots.txtファイルはここに保存されます。
- robots.txt ファイルが既に存在する場合は、新しいファイルに置き換えることができます。そうでない場合は、先ほど作成したファイルをアップロードしてください。.
これで完了です!robots.txtファイルの準備は完了です。動作確認のため、ブラウザでドメインの末尾に「/robots.txt」
学ぶ: WordPress 用の FTP アカウントを設定する方法
cPanelを使用してRobots.txtを編集する

cPanel を使用する手順は、FTP クライアントを使用する場合とほぼ同じです。手順は以下のとおりです。
ステップ1:cPanelにログインする
まず、ウェブサイトのcPanelにログインしてください。ホスティングプロバイダーからログイン情報がすでに提供されているはずです。
ログインしたら、 「ファイル」セクションまで下にスクロールし、 「ファイル マネージャー」をクリックします。
ステップ2: Robots.txtファイルをアップロードする
ファイルマネージャーで、 public_htmlディレクトリに移動します。これはrobots.txtファイルを配置するルートフォルダです。
既に robots.txt ファイルが存在する場合は、新しいバージョンに置き換えてください。存在しない場合は、新しく作成したファイルをアップロードしてください。.
ステップ3: Robots.txtファイルをテストする
ファイルが正しくアップロードされていることを確認するには、ブラウザに/robots.txt
これで完了です!FTP を使用した場合でも cPanel を使用した場合でも、robots.txt ファイルが更新され、検索エンジンにサイトとのやり取り方法を指示する準備が整いました。.
探る: WordPress向けcPanel代替ホスティングプラットフォーム
AIOSEOを使用してRobots.txtを編集する

robots.txtファイルを編集する最も簡単な方法の一つは、 All in One SEO(AIOSEO ) WordPress用SEOプラグインのでも特に優れたプラグインの一つです。AIOSEOには高度なrobots.txtエディタ、WordPressのデフォルトのrobots.txtファイルを上書きし、検索エンジンによるサイトのクロールルールを独自に設定するのが非常に簡単です。
AIOSEO を使用して robots.txt ファイルを編集してみましょう。
ステップ1: カスタムRobots.txtを有効にする
まず、 WordPressダッシュボードの「 All in One SEO」 「ツール」。そこから「Robots.txtエディター」タブを選択します。
AIOSEOは動的なrobots.txtファイルを自動生成します。このファイルはWordPressデータベースに保存され、ブラウザで表示できます(方法は後ほど説明します)。.
「カスタムRobots.txtを有効にする」を選択してください。ボタンをクリックすると青色に変わり、ファイルをカスタマイズできるようになります。
画面下部にデフォルトルールのプレビューが表示されます。これらのデフォルト設定は、管理ページなどの特定のWordPressコアファイルをロボットがクロールしないように指示するものです。これらのルールは、独自のルールで上書きできます。
ステップ2: 独自のルールを追加する
ルールビルダーを使用するか、他のサイトからrobots.txtファイルをインポートする
方法 1: ルールビルダーを使用してルールを追加する
ルールビルダーを使用すると、クロールするページとクロールしないページに関する独自のルールを簡単に作成できます。例えば、一時ディレクトリからのすべてのロボットをブロックしたい場合は、ここで設定します。
仕組みは以下のとおりです:
- ユーザーエージェント: ロボットの名前(「Googlebot」など)をユーザーエージェント欄に入力します。すべてのロボットにルールを適用する場合は、*記号を使用してください。
- ディレクティブ Allow 、 Disallow 、 Clean-param 、 Crawl-delayなどの利用可能なディレクティブから選択します。
- 値: ルールを適用するディレクトリ パスまたはファイル名を入力します。
設定が完了したら、 「ルールを追加」完了したら、 「変更を保存」をクリックすることを忘れないでください
新しいルールはRobots.txtのプレビューセクションに表示されます。更新されたファイルを確認するには、 「Robots.txtを開く」。robots.txtファイルの実際のURLが表示されます。
方法2: 別のサイトからルールをインポートする
他のサイトでrobots.txtファイルを見つけた場合、それをAIOSEOを使って自分のサイトに簡単にインポートできます。手順は以下のとおりです。
- AIOSEO メニューで、 [ツール] > [Robots.txt] > [カスタム Robots.txt を有効にする]に移動します
- [インポート]をクリックします。
- robots.txt ファイルをインポートするサイトの URL を貼り付けるか、指定されたスペースに内容を直接コピーして貼り付けます。.
- [インポート] をクリックすると、AIOSEO がファイルを取得してサイトに追加します。
これはおそらく、サイトにカスタム robots.txt ファイルを導入する最も早い方法です。
Robots.txtルールの編集
ルールビルダーを使って再度編集できます。ルールの横にあるゴミ箱アイコンをクリックしてルールを削除することもできます。
そして、便利な機能があります。ルールの順序を変更できます。ゴミ箱の横にある6つの点をクリックして押したまま、ルールを新しい位置までドラッグして放すだけです。これにより、最も重要なルールを優先的に配置できます。
変更が完了したら、 「変更を保存」すべてを適用します。
これで完了です!AIOSEOを使ってrobots.txtファイルを編集できました。簡単ですよね?
さらに読む: WordPressのSEO最適化:総合ガイド
結論
結論として、WordPressのrobots.txtファイルを編集することは、検索エンジンボットがサイトとどのようにやり取りするかを管理するためのシンプルかつ強力な方法です。このファイルを作成してカスタマイズすることで、ボットによるセンシティブなコンテンツや重複コンテンツのクロールを防ぎ、最も関連性の高いページのみがインデックスに登録されるようにすることができます。.
さらに、robots.txtファイルを使用することで、ボットを好みのコンテンツに誘導し、サイトのSEOと可視性を向上させることができます。このファイルを定期的に確認し更新することは、サイトの検索エンジンパフォーマンスをコントロールするための重要なステップです。.