SEO を行う人なら誰でも、Web サイトが検索エンジンに含まれることが重要であることを知っています。サイトが検索エンジンに含まれていない場合、SEO は問題外です。したがって、Web サイトが検索エンジンによって検出され、Web ページが検索エンジンによって適切にインデックス付けされるようにするには、まずサイトをスパイダーがクロールしやすくする必要があります。検索エンジンが Web ページを巡回するために使用するツールはスパイダーまたはクローラー ロボットと呼ばれ、英語名はロボットです。これらのスパイダーはハイパーリンクに沿って多くのページをクロールしますが、一部のページはクロールできない場合があります。これは、Web サイト自体にスパイダー クローリングを助長しないいくつかの問題があり、対応するページが検索エンジンによってインデックス付けされることが困難であることが原因です。 , したがって、「 「スパイダートラップ」とは、一般に、検索エンジンにとって不利な Web サイト制作テクノロジーを指します。これらのテクノロジーは、スパイダーがページを巡回するのを助長しません。この状況を回避するために、Xiaowuming は、スパイダーの侵入を防ぐための次の要素をまとめました。罠に入る。
1: セッション ID を使用するページ 一部の販売サイトでは、サイトにアクセスする際に、各ユーザーが同じスパイダーの URL にセッション ID を追加してユーザーを追跡します。スパイダーが URL にアクセスするたびにセッション ID が追加され、結果としてコンテンツ ページが重複してしまいます。これも最も一般的なクモトラップの 1 つです。たとえば、一部の Web サイトでは、販売実績を向上させるために、「XXX の友達、こんにちは」などのポップアップ会話が行われます。
2: ページにアクセスするために強制的な登録またはログインを使用する常識的なスパイダー トラップ。スパイダーにとって、コンテンツを表示するために登録を送信したり、ログインするためにユーザー名とパスワードを入力したりすることはできないためです。クリックして直接表示するコンテンツもスパイダーが見ることができます。
3: Flash を使用するサイトが好きです。Flash を使用するサイトが好きだと言うのは、一部の中小企業にとって、特にナビゲーションで使用される場合、Flash 自体がさまざまな効果を発揮するためです。視覚効果が強いため、多くの企業の Web サイトでは、自社の強み、文化、製品などを示すために Flash を使用することが好まれています。一部の企業サイトのトップページでも、一定期間後に Flash によって別のページにジャンプするか、Flash になっています。リンクを使用すると、ユーザーはクリックして新しいページにアクセスできますが、スパイダーがフラッシュのコンテンツを読むのは難しいため、スパイダーがフラッシュ上のリンクをクリックすることも困難です。
4: 動的 URL、URL に追加するシンボルや URL パラメータが多すぎるなど。この種のスパイダー トラップについては URL の最適化で説明しましたが、検索エンジンの技術開発により、動的 URL はスパイダーのクロールに効果的ではなくなりました。問題はますます少なくなってきていますが、検索エンジンの使いやすさという点では、動的 URL よりも静的 URL、さらには擬似静的 URL の方が相対的に優れています。URL を扱う SEO スタッフの数を見てみましょう。
5: 初期の頃はフレームがどこでも広く使用されていましたが、現在ではフレーム Web ページの多くの Web サイトでフレームが使用されることはほとんどありません。その理由は、第一に、主要な CMS システムの開発により、初期の Web サイトの保守が比較的容易になったことです。フレームが使用されるのは、Web サイトのページを維持するのに便利であるためです。さらに、フレームが検索エンジンに組み込まれるのに役立たないため、フレームの使用が減少します。
6: JS では、検索エンジンが JavaScript のリンクを追跡したり、逆アセンブルして分析したりできるようになりましたが、検索エンジンが独自に困難を克服できるとは期待しない方がよいでしょう。ただし、一部の効果的なナビゲーションは JS を通じて実行できますが、CSS を使用することもできます。ウェブサイトの検索エンジンに対する親しみやすさを向上させるために、ウェブページをスパイダーがクロールしやすくすることをお勧めします。もちろん、SEO においては、ウェブマスターが js を使用する利点の 1 つはあります。ページを含めたくない場合は、フレンドリーなリンクに js を使用できます。 Javascript スパイダー トラップを排除するもう 1 つの方法は、<noscript> タグを使用することです。 <noscript> タグは、JavaScript をサポートしていないブラウザに代替コードを提供します。スパイダーは JavaScript を実行しないため、代わりに <noscript> コードを処理します。
7: 深層 Web ページには、入り口がなく、Web サイトのトップページから遠く離れたページもあるため、スパイダーがクロールするのは比較的困難です。 もちろん、重みの高い Web サイトの場合は別の問題になる可能性があります。 Web サイトのページを含めるには、まず基本的な重みを持たせる必要があります。通常、ホームページの重みが最も高く、その後、内部ページの重みが高くなるにつれて、ホームページの重みが内部ページに渡されます。この理論によれば、ページ間のウェイト移動は減少するため、内部ページとトップページの間のクリック距離が近いほど、より多くのウェイトを獲得しやすくなります。ホームページから転送します。 Web サイトの構造が優れていると、Web サイトのより多くのページを含めることができます。
8: Cookie の強制使用は、検索エンジンの Cookie を直接無効にすることと同じです。一部の Web サイトでは、ユーザーのアクセス パスの追跡、ユーザー情報の記憶、さらにはユーザーのプライバシーの窃取など、特定の機能を実現するために強制 Cookie を使用します。ユーザーがそのようなサイトを訪問するときに Cookie を有効にしないと、表示されるページが異常になるため、同じ Web ページにスパイダーが正常にアクセスできなくなります。
9: さまざまな形式のジャンプ。多くの SEO キッズはすでに 301 リダイレクトに精通していると思いますが、スパイダーは他の 302、またはメタ リフレッシュ、JavaScript、フラッシュなどのジャンプに非常に嫌悪感を持っており、301 は最後ではありません。リゾートを使用すると、どのジャンプもクモの這いをある程度妨げます。
10: Robots.txt の書き込みエラーと、隠しテキスト、隠しリンクなどのさまざまな不正行為手法、偽装 Web ページを使用して別の Web ページを表示し、訪問者がスパイダーであるか通常のブラウザであるかを判断し、デフォルトのエラーを使用する404ページなどもクモに障害物を這わせます。この記事の出典: Shenzhen SEO Website: http://www.zhsem.com/オリジナリティを尊重してください。転載する場合はその旨を明記してください。ありがとうございます。
著者シャオ・ウーミンのパーソナルスペース