最近、多くの友人の Web サイトでも同じ問題が発生しています。つまり、Baidu の検索結果で Web サイトのタイトルと説明が異常かつ不完全に表示され、Web サイトのスナップショットには説明がなく、Web サイトのスナップショットはプレビューできませんが、Web サイトのスナップショットは表示されません。スナップショットは毎日更新されますが、この問題について、原因は何ですか? ここでは、この問題の原因と解決策について著者がお話します。
1. robots.txtファイルによるトラブル
一般に、これは、Robots.txt で特定の URL が「nofollow、noindex」に設定されている場合に発生しますが、この指示は検索エンジンにこのリンクをたどって含めないよう指示します。ただし、このリンクを指す外部リンクが一定数ある場合は、検索エンジンに URL が含まれる可能性があります。このとき、タイトルは URL で、説明は空でも構いません。もちろん、この状況は主に GOOGLE 検索エンジンで発生します。 Baidu に「nofollow、noindex」リンクが含まれることはまれですが、この可能性は排除されません。
著者は 1 か月前にクライアント向けに Web サイトを最適化しましたが、この問題も robots.txt ファイルが変更されたために発生し、Web サイトのタイトルと説明のスナップショットが不完全になったため、数日間原因を探していました。結果は見られませんでしたが、robots.txt に問題があるのではないかと思いましたが、後で偶然発見したので、すぐに修正しました。その結果、翌日には Web サイトが正常に戻ったので、この問題が発生した友人は robots.txt ファイルを確認することをお勧めします。
2. ウェブサイトの内容およびタイトルの変更
これは、Web サイトのタイトル、説明、または URL パスのすべてまたは大部分が変更および調整された後など、より深刻な状況です。これにより、大量の無効なページが発生し、検索エンジンからそのページが消えた後、そのページへの外部リンクが存在するため、検索エンジンからの信頼が失われます。説明も Empty に関するものである可能性が非常に高いです。
Web サイトの改訂や大規模な変更の後は、エラー ページのクローリングや 404 エラー ページの生成を禁止するようにロボットを設定することをお勧めします。これにより、一方ではユーザーの損失を減らすことができ、他方ではスパイダーに次のことを伝えることができます。これは間違ったアドレスであり、禁止されています。スパイダーは存在しない Web ページをクロールし、この期間中、Web サイトの元のコンテンツと高品質の外部リンクを更新し続けます。
3. Baidu のデータ収集能力が不十分
この状況は、主に Baidu のデータ収集能力が十分でないために発生することが観察されています。特に CDN を使用する Web サイトの場合、一般的に、Baidu クローラーはドメイン名に対応するサーバー IP を 1 日以上キャッシュします。スパイダーが Web サイトをクロールするとき、DNS プロトコルに従って DNS レコードはキャッシュされません。 DNS レコードは 1 日以上保存されるため、スパイダーが Web サイトをクロールするときに、DNS プロトコルに従って DNS レコードをキャッシュしません。CDN が IP を変更すると、Baidu Spider はアクセスできない古いサーバー IP をクロールし続けます。 1日以内に。これにより、特定のノードのデータがクロールされなくなり、Web サイトのタイトルや説明が正しく表示されなくなります。
百度のデータ分析と処理能力はまだ強化する必要がある。通常、1 週間以内に通常の状態に戻るため、この状況に遭遇したウェブマスターはパニックになる必要はありません。
最後に、ウェブマスターの友人に言っておきますが、ウェブサイト自体やサイト外の要素をチェックして問題が見つからなかったとしても、通常の状況では、Baidu 自体またはデータベースの調整に問題がある可能性が高くなります。通常通り1週間以内に復旧します。この期間中、サイトの内外で何が起こっているかを分析し続ける必要があります。
この記事はhttp://www.gzhj-gb.com のウェブマスターによって寄稿されたものです。転載する場合は出典を明記してください。
編集長:ヤンヤン著者ランリー・タオジンのパーソナルスペース