多くの友人が、自分の Web サイトが Baidu スパイダーによってクロールされたが、IIS ログを読んだ後は含まれていなかったとフォーラムに投稿しました。これは、Baidu の検索エンジンの原理に関連しています。まず、検索エンジンは Web マップ (Webmap) を作成し、記録します。インターネットのリンク構造を解析し、Web クローラー (ロボット) を使用して、Web ページ マップに基づいて高品質の Web ページをクロール (Crawl) し、Web ページ スナップショット データベースに保存します。
次に、インデクサー プログラム (Indexer) は、スナップショット データベース内の Web ページ番号を Web ページ インデックス データベースに保存します。このプロセスでは、関連するテクノロジが不正な Web ページ (スパム) を削除するために使用されます。ユーザーが検索するクエリ用語を入力すると、クエリ プログラムはこのクエリ用語を使用してインデックス データベース内で比較し、関連性の度合いに応じて Web ページが並べ替えられます。ランキングが高くなります。関連性の計算は、Web サイトのタイトルまたは Web ページのコンテンツとクエリ用語の一致、Web ページのリンク数など、さまざまな要素を含む総合的な結果です。したがって、検索エンジンの次の更新を辛抱強く待っていれば、ページを表示できます。
Baidu のインクルージョン この問題は、SEO を行っている多くの友人や SEO を学んでいる友人を常に悩ませてきたと思います。
そこで今日はBaiduの収集テクニックについて簡単に紹介します。
最初に話したいのは、Web サイト自体の問題です。多くの人は、Web サイトがオンラインになる前に、オンラインでより多くのコンテンツを取得するためだけに、他の人の記事や他の人の情報をコピーしたがります。擬似的なオリジナリティも取り入れることができます。
実際、これは間違いです。もちろん、Web サイトに Baidu クローラーがクロールするのに十分なデータがあるのは良いことです。しかし、新しい Web サイトで重複したコンテンツがクロールされた場合、検索エンジンはどう判断するでしょうか。あなたは毛織物ですか?
言わずもがな、百度の収集手法の一つです。
2 つ目は、Baidu のクローラーを引き付けることで、Web ページの開始点を介してコンテンツをクロールし、Baidu が頻繁に更新する場所をいくつか見つけてリンクを送信することができます。バイドゥ。
3つ目は
最後に、クローラーを惹きつけるのに適した場所をいくつか紹介します。admin5、chinaz bianews は、Baidu が非常に気に入っている場所です。これらの決定方法は、あくまで個人的な提案であり、権威のあるものではありません。それは単なるアイデアです。それを行う方法については、自分でゆっくりと見つけていく必要があります。
さて、ここで書き込みを終わりにしましょう。
この記事は Qiying Online (www.hnqiying.com) によって最初に転載されました。出典を明記してください。著者: アーギュメント