昨今、インターネット上には多種多様なコンテンツが溢れています。公開すべきではないものを公開することがあります。たとえば、怒りに任せてブログ投稿を投稿し、後で後悔したり、誤って機密データを漏洩したりすることがあります。ほとんどの場合、コンテンツを削除するかアクセスを制限するだけで、検索結果に表示されなくなります。ただし、すでに Google によってインデックスに登録されている不要なコンテンツをどうしても削除したい場合は、特定の基準を満たしている限り、検索結果からコンテンツを削除する URL 削除ツールを使用できます (すぐに削除する方法については後述します)。さまざまな種類のコンテンツを適切に削除する方法と、よくある間違いを回避する方法を説明する一連のブログ投稿を公開する予定です。この最初のブログ投稿では、単一の URL の削除、ディレクトリまたは Web サイト全体の削除、削除されたコンテンツの再追加など、いくつかの基本的なシナリオについて説明します。
単一の URL を削除する
一般に、削除リクエストが成功するには、問題の URL の所有者 (あなたまたは他の人) がコンテンツの削除に同意する必要があります。単一の URL の場合、同意を示す方法は 3 つあります。
robots.txt ファイルを介してページをブロックし、検索されないようにする
noindex メタタグを介してページをブロックすると、インデックスが作成されなくなります
404 または 410 ステータス コードを返して、現在のページが存在しないことを示します。
削除リクエストを送信する前に、まず URL がブロックされているかどうかを確認できます。
robots.txt: ウェブマスター ツールの [Fetch as Googlebot] または [robots.txt のテスト] 機能を使用して、URL がアクセスを拒否されているかどうかを確認します。
noindex メタ タグ: Fetch as Googlebot を使用して、メタ タグがタグの間に確実に表示されるようにすることができます。ウェブマスター ツールを使用して検証できないページを表示する場合は、ブラウザで URL を開き、[表示] > [Web リソース] をクリックし、メタ タグがタグの間にあることを確認します。
404/410 ステータス コード: Fetch as Googlebot、または Live HTTP Headers や web-sniffer.net などのツールを使用して、URL が実際に正しいコードを返しているかどうかを確認できます。場合によっては、「削除された」ページに「404」または「ページが見つかりません」と表示されても、ヘッダーにステータス コード 200 が返されることがあります。したがって、適切なヘッダー検証ツールを使用して再確認することをお勧めします。
Web ページから不要なコンテンツを削除しても、上記の方法を使用してページをブロックしていない場合でも、検索結果から URL を完全に削除することはできません。これは、自分が所有していない Web サイトにコンテンツが投稿されている場合によく発生します。これに対処する方法については、URL の削除に関するシリーズのパート 2 で説明します。
URL が上記の条件のいずれかを満たしている場合は、 http://www.google.com/webmasters/tools/removalsにアクセスし、削除する URL を入力し、[ウェブマスターがこのページをブロックしました] オプションを選択して削除できます。それは削除されました。注: Google がコンテンツを検索する URL ではなく、コンテンツを含む URL を入力する必要があります。たとえば、次のように入力します。
http://www.example.com/embarrassing-stuff.html
それよりも
http://www.google.com/search ? q=恥ずかしい+もの
この記事では、正しい URL を確実に入力する方法についても詳しく説明します。迷惑な正確な URL をお知らせいただけない場合、不要なコンテンツを削除することはできませんのでご注意ください。
ディレクトリまたは Web サイト全体を削除する
ディレクトリまたは Web サイト全体を正常に削除するには、Web サイトの robots.txt ファイルでディレクトリまたは Web サイトへのアクセスを拒否する必要があります。たとえば、 http://www.example.com/secret/ディレクトリを削除するには、robots.txt ファイルに次の内容が含まれている必要があります。
ユーザーエージェント: *
禁止: /secret/
ルート ディレクトリは 404 ステータス コードを返しますが、ディレクトリが 404 ステータス コードを返したとしても、その下にあるファイルを表示することは可能であるため、これでは十分ではありません。 robots.txt を使用してディレクトリ (または Web サイト全体) をブロックすると、ディレクトリ (または Web サイト) の下にあるすべての URL を確実にブロックできます。ウェブマスター ツールの Fetch as Googlebot または Test robots.txt 機能を使用して、ディレクトリが完全にブロックされているかどうかをテストできます。
ウェブマスター ツールでサイト全体またはディレクトリ全体の削除をリクエストできるのは、認証されたサイト所有者のみです。ディレクトリまたは Web サイトの削除をリクエストするには、まず関連する Web サイトを入力し、[Web サイトの設定] > [クローラ アクセス] > [URL の削除] をクリックします。サイトのルートにいて URL を削除したい場合は、サイト全体を削除するかどうかを確認する必要があります。サブディレクトリを入力する場合は、ドロップダウン メニューで [ディレクトリの削除] オプションを選択する必要があります。
コンテンツを再度追加する
他の人から送信されたリクエストも含め、サイトの削除リクエストはいつでもキャンセルできます。これを行うには、ウェブマスター ツールで認証されたサイト所有者である必要があります。確認が完了したら、[サイト設定] > [クローラ アクセス] > [URL の削除] (または > [他のユーザーによる送信]) に移動し、キャンセルするリクエストの横にある [キャンセル] ボタンをクリックします。
まだ質問がありますか? Google の検索結果からコンテンツを削除する方法に関する一連のブログ投稿を継続していきますので、最新情報にご期待ください。