Baidu のアルゴリズムの最近のアップデートにより、多くの Web マスターの友人、特に企業 Web サイトを運営する一部の Web マスターがアルゴリズムのアップデートの影響を受け、Web サイトの痕跡が消去されました。 Baidu のアルゴリズムは常にアップグレードされ、更新されています。勤勉なウェブマスターはこの頻繁なアルゴリズムにどのように対処すればよいのでしょうか。著者が独自の対処方法を紹介します。
まず、Web サイトからスパム コンテンツを削除します。
Baidu は、多数の低品質 Web サイトが 6.28 アップデートで処罰されると公式に厳密に述べました。事実は、Baidu アルゴリズムの中で安全に生き残るために、最初に行うべきことは、Web サイトのスパム ページを削除することです。ウェブサイト内に役に立たないデータ、不完全なデータ、ユーザーに適していないデータ、または完全に収集されたデータがある場合、特にウェブサイト内に存在する「ブリッジページ」や「広告ページ」などについては、次のことをお勧めします。ウェブマスターは、そのようなジャンク コンテンツをできるだけ早く削除する必要があります。スパイダーがコンテンツをクロールするために Web サイトにやって来た場合、それが偽のオリジナリティであるかどうかを判断する高度な技術を持っていなくても、Web サイトのタイトルに基づいて、同じコンテンツであるかどうかに基づいて異なる URL にクモを配置することができます。 、ページのタイトル、タグ、内部リンクのアンカーテキストが同一であるかどうかなど、スパイダーがスパムコンテンツかどうかを判断する基準となります。ウェブマスターはWebサイトを検索する必要があります。 。そのようなコンテンツを含む Web ページは、Web サイトの品質への長期的な影響を避けるために直ちに削除する必要があります。
2 番目: 不正なリンクを削除します。
企業の Web サイトの最適化では、キーワードのランキングを迅速に向上させるために、Web マスターがスパム画像サイトや、正式な最適化手法に依存していない Web サイトから大量のリンクを購入することがよくあります。これらのリンクは短期間で Web サイトのランキングを向上させる可能性がありますが、10.23 の Baidu アルゴリズムは不正なハイパーリンクを含む Web サイトを罰するため、Web マスターはブラック リンク、不正な一方向リンク、無意味なクロスリンクを悪用できなくなります。すべてウェブサイトから削除されて使用されます。外部リンクの最適化は Web サイト最適化の核心です。Web サイトが長期的に存続したい場合は、スパムや不正リンクを削除した後、Web サイトの高品質なリンクを見つける必要があります。フォーラムについては、A5、SEOWHY にアクセスしてください。ソフト記事プラットフォーム:A5、iResearch、donews、ブログ:Sina、Tianya、Sohu、機密情報:58、リスト、一般人ディレクトリWebサイト:Tuiyou.com、Webサイトナビゲーションステーションなど。ウェブマスターは、長期間存続するために、上記の重要なウェブサイトからリンクを見つけるか、Baidu の最適化ルールに従うだけで、不正なスパム リンクは必要ありません。
第三に、高品質なコンテンツ構築の強化
ウェブマスター コミュニティでは、コンテンツが王様であるという格言が常に尊重されてきました。Baidu のアルゴリズムを頻繁に更新した後、ウェブマスターは、高品質のコンテンツだけがウェブサイトを長期間運営し続けることができることを証明しています。コンテンツ構築。 Baidu が承認していない最適化手法を削除した後、Web サイトに必要なのは、新しいページをクロールして Web サイトに新たな重みを与えるために、Web サイトにスパイダーを呼び寄せることです。高品質なコンテンツを構築するにはどうすればよいでしょうか? 高品質なコンテンツには次の点が不可欠です。
まず第一に: ユーザー向けのコンテンツを構築し、製品の使用方法、会社の製品の表示、製品の使用価値、製品の具体的な価格など、ユーザーが Web サイトにアクセスするためにどのような種類のコンテンツが必要かを理解します。これらはすべて、ウェブマスターがコンテンツのソースを構築することになります。高品質のコンテンツを作成する場合、インターネットからコンテンツをコピーして貼り付けるだけでは不十分であることがわかりました。Web マスターは自分でコンテンツを探索し、ユーザーに提供する必要があります。 Web ページのタイトルは、コンテンツ名 + キーワード + 会社名の形式にする必要があります。Web サイト全体に同じタイトルを使用することは、Web サイトの最適化ではタブーです。
2 番目: 検索エンジン用のコンテンツを構築する スパイダーがコンテンツをクロールするために必要なのは、大量の Flash、画像、隠しテキスト、JS コードなどがあってはなりません。 Web サイト内のデッドリンクなど これらはすべて、スパイダーによる Web サイトコンテンツの巡回に影響を及ぼします。Web サイト内にそのような要素が現れるのを避けるには、画像に alt タグを追加し、Flash コードと JS コードをできるだけ少なくします。 Web サイトのコードを簡素化して、スパイダーが Web サイトをより速く、より徹底的にクロールできるようにします。
Baidu のアルゴリズムは常に更新されていますが、Baidu の公式要件に従って最適化し、顧客を第一に考え、主な最適化エネルギーを Web サイトのコンテンツ構築に注ぐ限り、コンテンツを適切に構築することによってのみ、Baidu の頻繁なアルゴリズムに対処することができます。上記で共有した対処方法が、ウェブマスターが Baidu の災害からよりよく生き残るのに役立つことを願っています。
この記事の出典: http://www.hlqxc.org初版はA5版ですので、転載の際は出典を明記してください。
(編集者:ヤンヤン) 著者のパーソナルスペース ストロンチウム Strontium