Baidu の最近の戦略的アップデートにより、インターネット上で「コンテンツ構築に焦点を当てよう」という声が高まり、ウェブマスターたちはどのようにして良い Web サイトを構築するか、そしてどのような Web サイトのデザインがクモの食欲をそそるかについて議論し始めました。私も最近勉強しています。 Baidu の新しい戦略に対応する驚くべき Web サイトをデザインする方法について、ここで私の考えを共有したいと思います。
1 つ目: フレンドリーなナビゲーション設定。 Web サイトを構築するときは、ホームページのデザインだけでなく、内部ページのデザインやスパイダー クローリングも考慮する必要があります。多くの Web サイトは、デザイン時にホームページにコンテンツを配置するだけで、他の内部ページへのリンクはありません。 Web サイトにアクセスしてクロールする ホームページのコンテンツを取得した後は、Web サイトから飛び出すことしか選択できません。この種の Web サイトのデザインでは、スパイダーがホームページに含めることができるのは 1 ページだけであり、他のページを含めることはできません。 Web サイトのページを含めるには、Web サイトの内部ページがホームページから 5 クリック以内にある必要があります。これには、Web サイトにわかりやすいナビゲーションを設定する必要があります。 Web サイトのトップ列ページ ナビゲーション、ホーム ページ呼び出しセクションの「詳細」リンクの内部ページ ナビゲーション、内部ページのブレッドクラム ナビゲーション: ホーム ページ - 列ページ - コンテンツ ページ。同時に、ナビゲーションのデザインにはいくつかのタブーもあります。画像ナビゲーションを使用しない、JS ジャンプ ナビゲーションを使用しない、シンプルな記事アンカー テキスト ナビゲーションを使用するようにしてください。また、フレンドリーなナビゲーション デザインはスパイダーに対する抵抗が最も少なくなります。ユーザーにとっても最高のエクスペリエンスが得られます。
2 番目: フレンドリーなページ構造設計。多くの製品 Web サイトでは、ユーザーの視覚効果を実現するために、大量の JS コード、画像、Flash アニメーションなどが使用されています。これらのコードは、クモにとっては理解できません。Web サイトのデザインは、効果を考慮するだけでなく、検索エンジンでの生存についても考慮したほうがよいでしょう。 Baidu が開始したページ最適化提案ツールを使用する Web マスターは、Web サイトで JS コードを使用した後、スパイダーのリクエスト時間を短縮するために、Baidu には Web サイト コードの簡素化に対する高い要件があることがわかります。 Web サイトの CSS スタイル シートもマージして、Web サイト内でフレーム構造を使用しないようにしてください。フレーム コードとフラッシュ コードはスパイダーにとって困難です。 Web サイトの広告セクションや重量を移動する必要がないセクションでは、ウェブマスターは iframe タグと nofollow タグを使用して、不必要な重量の減少を避けることができます。
3 番目: フレンドリーな Web サイトのジャンプ コード。検索エンジン スパイダーの場合、不正行為とみなされない唯一のジャンプは、新しい Web サイトに完全に移行できる 301 ジャンプです。 URL をジャンプするには他にも 302 ジャンプ、JS ジャンプ、メタリフレッシュ ジャンプなどの方法がありますが、これらのジャンプ方法はスパイダーによって不正な方法とみなされます。そのため、他のジャンプ方法以外を選択する必要はありません。 301ジャンプよりも。 Windows ホスト上の 301 ジャンプの ASP コード: <%@ Language=VBscript %> <% Response.Status="301 Moved Permanently" Response.AddHeader "Location","Domain name">。 PHP コード:
4 番目: フレンドリーなページの静的設定。 Baidu の新しい戦略には、Web サイト上の高品質なコンテンツに対する高い要件があり、Web マスターは Web サイトにさらに多くのコンテンツを含めるように熱心に取り組んでいます。これにより、Web サイトがより適切に組み込まれる可能性があります。動的アドレスは、コンテンツをクロールするときにスパイダーにとって不都合を引き起こします。Web サイトのページを完全に含めるには、スパイダーが無限ループに陥りやすくなります。 URL から静的 URL へ。多くの Web マスターは、スパイダーが Web サイトをクロールしてくるときに動的アドレスを識別できると言うかもしれませんが、スパイダーがクロールする際のトラブルを軽減する良い方法があります。 、ウェブマスターはなぜそれをしないのですか。コンテンツを含む Web サイトの場合、Web マスターは robots.txt ファイルに次のコードを追加できます: Disallow:/*?* を使用して、スパイダーが Web サイト上で重複したコンテンツを収集することを禁止します。これも回復するのに時間がかかります。参加した後は不安になりますが、データベースがキャッシュされるまで辛抱強く待ちます。データベースがキャッシュされると、再度含まれることはありません。
ウェブマスターはウェブサイトを運営するために一生懸命働いていますが、このような詳細のためにウェブサイトが罰せられるのであれば、それは泣くことなくウェブサイトのデザインを使用して不意打ちを勝ち取ればいいのです。 Baidu がどのように戦略を更新しても、Web マスターが細部にわたって適切な仕事をし、コンテンツの構築とユーザー エクスペリエンスの向上に集中できる限り、Web サイトは当然長く存続します。
この記事の出典: http://www.hlqxc.org初版はA5版ですので、転載の際は出典を明記してください。
(担当編集:momo) 著者ストロンチウムストロンチウムのパーソナルスペース