Web サイトの最適化戦争では、Baidu のインクルージョンは常に SEOER によって議論される重要なトピックであり、安定したインクルージョンは Web サイトのトラフィックと収入に直接影響します。 Web サイトのトップページのスナップショットは非常に速く更新されるのに、内部ページが含まれていないのはなぜですか?多くの友人が私と同じ質問に対する答えを探していると思います。この記事では、Webサイトの内部ページがBaiduに登録されない原因とその対策について説明します。
理由 1: Baidu はインデックスを作成していますが、ランキングをまだ発表していません。 Baidu が記事を含めるには、レビュー時間が必要です。スパイダーは、インデックス付けに成功したコンテンツをクロールして、ランキングに参加するためにリリースされる前に、それが SPAM であるかどうかを確認するために 2 回レビューする必要があります。 Baidu は、Web サイトを追加する前に定期的に更新します。これは、新しいサイトでは最も一般的な現象です。
対策: 私たちがしなければならないことは、定期的かつ定量的な更新を確保し、Web サイトのログを観察することです。スパイダーが正常にクロールしている限り、辛抱強く待っていれば予期せぬ事態が発生するでしょう。
理由 2: ロボット設定の問題により、内部ページがエンジン スパイダーによってクロールされず、インデックスが作成されない
対策: メタ ロボットや nofollow などのタグの設定を含め、文法エラーがスパイダーのクローリングをブロックしていないかどうかを確認します。
理由 3: 記事のオリジナリティに問題がある ヘッダータグの設定により同様のページが重複する、または収集されたページが多すぎるため、Baidu データベースにすでに大量の同様の情報が存在します。長期的な運営はBaiduの権威を失う可能性があります。
対策: 記事のオリジナリティを維持する必要があります (疑似オリジナル記事については皆さんよくご存知だと思います)。Baidu に良い習慣を身に付けるためには、毎日定期的に更新するのが最善です。ウェブサイトを時間厳守でクロールします。
理由 4: Web サイトの内部リンクに問題がある。たとえば、間違ったリンクが多数存在する、Web サイトのリンクが不適切である、スパイダーがスムーズに巡回できない、URL リンクが不適切であると Web サイトの権限が失われる。
対策: ホームページやチャンネルなどのさまざまな重要なページで間違ったリンクがないか確認し (Google ウェブマスター ツールのクロール エラーを観察できます)、掲示板、コメント、その他のネットユーザーのインタラクティブ機能で不正なリンクを確認し、悪質な Web サイトとの相互リンクを回避します。
理由 5: この Web サイトではブラックハット手法が使用されており、不正な手法が特定され、サイト全体が降格されました。
対策: キーワードの蓄積、大量の投稿、ブラック リンクなどのブラック ハット行為から遠ざける。Baidu が対策を講じれば、Web サイトの長期的な安定性を回復するのは難しくありません。
理由 6: サーバーにアクセスできない、遅い、ハングしているなど。 Baidu Spider がコンテンツのインデックスを作成すると、Web サイトに大量の文字化けしたコードがあるか、サーバーにアクセスできないことが繰り返し確認され、Web サイトは監視リストに追加されました。
対策: Web サイトのコードを最適化してページの読み取り速度を向上させ、責任ある安全スペース サービス プロバイダーを選択し、成熟した Web サイト プログラムを選択してパッチを定期的に更新し、変更されたファイルの痕跡を定期的に追跡します。
上記の 6 つのポイントを現実的な方法で実行することに加えて、Luotuo 氏は具体的に、実行する価値のあるいくつかのポイントを提案しました。 2. 各ページのテーマをより目立たせるために、内部ページの関連リンク呼び出しは規則的である必要があります。 3. 内部ページのスパイダーを誘導するために外部リンクを適切に使用できます。すべての詳細を把握して、安心して Baidu が内部ページを含めることを避けないと信じてください。
著者: Luo Tuo、ブログ ( www.seo173.com ) は SEO の道を主張しています。コミュニケーションを歓迎します。
Luo Tuo さんの貢献に感謝します