Web サイトの改訂、同じ IP Web サイトの問題、または Web サイトが攻撃されると、Web サイトの権限が失われることは誰もが知っています。しかし、Web サイトの重みに影響を与える別の要因があります。それは、Web サイトの重複コンテンツです。ウェブサイトに重複コンテンツが増えると、必然的にウェブサイトの重みとランキングに影響を与えるため、この点に注意することが SEO の重要な対策となります。
重複コンテンツはいつ発生しますか?
1 コンテンツを収集します。これは誰にとっても簡単に理解できることですが、多くの Web マスターは、コンテンツを作成する時間を節約するために、他の Web サイトにアクセスしてコンテンツを収集し、Web サイト間で重複するコンテンツが増加することになります。誰もがこれをよく知っていますが、幸運なウェブマスターはまだたくさんいます。しかし、著者は、誰もが適切に疑似オリジナルを作成して、記事に独自の理解を追加できると示唆しています。これは、直接コピーして貼り付けるよりも優れています。クモがもっと好きになるでしょう。
2 API サイトが原因でコンテンツが重複します。この理由は主にタオバオのウェブサイトにあります。API サイトが更新されると、重複したコンテンツが大量に生成され、同質になる傾向があります。しかし、タオバオはタオバオのウェブサイトの使用を禁止しているため、今は心配する必要はありません。 API のプロモーション。
3 ソート機能により、コンテンツが繰り返し表示されます。たとえば、一部の大手ショッピング ナビ Web サイトでは、ホームページに「売上高ランキング」や「人気ランキング」などの列が表示されます。これらのランキングは通常、URL の動的パラメータに基づいています。販売量の多い製品であるため、異なる URL の組み合わせが発生し、そのような製品が多すぎると、重複する URL アドレスが多くなり、Web サイトの最適化に非常に悪影響を及ぼします。
4 3 番目の点については、小説や音楽をダウンロードするための多くの Web サイトには同種のコンテンツが含まれると述べました。実際、この状況は電子商取引 B2C 業界でもよく見られます。おそらく、電子商取引 Web サイトにはコンテンツがほとんどないと言えるでしょう。 、画像がたくさんあるため、この状況が発生する可能性は低いですが、現時点ではスパイダーが画像を認識しないことは誰もが知っているため、Web サイトが繰り返しになるのはまさに画像です。画像に注釈を付けることはできますが、これはできません。結局のところ、alt タグでマークされるテキストが減り、ほとんどの画像の URL アドレスが同じであるため、重複ページの包含を確実に減らすことができます。ウェブサイト上に重複ページが含まれること。
5. Web サイトのプログラム設定の問題。Web マスターは Web サイトのプレビュー効果を実現するためにバックグラウンドでいくつかの動的ページを作成することがありますが、これらの動的ページは無視されるため、依然としてスパイダーが巡回します。ディレクトリに含まれると、Web サイト上でコンテンツが重複する原因になります。
6 生成された RSS サブスクリプション。 RSS サブスクリプションについては誰もがよく知っています。一部の大規模なニュース Web サイトや個人のブログなどの Web サイトでは、個人サイトのコンテンツを生成するために RSS サブスクリプションが使用されます。これにより、オリジナルのソースが転載されることになります。他のウェブサイトの内容と重複して転載されたり、スパイダーによる重複掲載が可能となります。
7 エラーコードが原因でページが重複する。エラー ページの戻りコードは 404 ステータス コードのみであり、他のステータス コードは正しくないことは誰もが知っています。たとえば、ステータス コード 200 を使用すると、ページを削除すると相手側のスパイダーに通知されます。このページのリクエストが成功すると、Web サイトのコンテンツが再び組み込まれます。同様に、エラー ページを誘導したい場合は、404 ステータス コードを使用する必要があります。そうしないと、コンテンツが重複して表示されます。 Webサイト。
重複コンテンツは蜘蛛の目には不正行為の一種であるため、Web サイトが反復しすぎると、Web サイトの重量が減少してしまいます。では、通常の Web サイトの構築と保守では、どのようにこれを防止すればよいでしょうか。
1. コンテンツの収集頻度を減らす これは簡単に理解できますが、Web サイトの発展が収集に依存している場合、Web サイトは存続できません。
2 各ページには固有のタイトルが付いています。これは非常に重要な場所です。タグを追加することで、スパイダーがこのページの一意性を区別できるようになり、特にカラム ページの固有性が向上します。内部ページの重みに特定の最適化上の利点を与えることができます。
3 メタタグを変更します。適切な説明はスパイダーの包含判断に大きな影響を与えますが、現在多くのサイトでは CMS プログラムを使用してメタ タグの独立性を大規模に実装しているため、著者は少なくともすべてのメタ タグを手動で変更することをお勧めします。 Web ページが 1 つの説明を共有できればもっと良いのですが、もちろんこれは無力です。
4 記事を修正して疑似オリジナルにする。記事が集まらないのは誰にとっても難しいことです。これは、Web サイトに携わったことのある Web マスターなら、たとえライターであっても、毎日一定の量の記事を書かなければならないことを知っています。毎日ですが、収集するために、私たちは入ってくる記事を修正する必要があります。それを自分の言葉でもう一度言うのが最善です。これは、スパイダーにとってお世辞です。
5 CSS スタイルシートを変更します。自分の Web サイトを構築する難しさを軽減するために、多くの初心者 Web マスターは他の人の Web サイトのホームページやコンテンツ ページをダウンロードして、それらを少し変更して自分の Web サイトに組み込むことがありますが、初心者の Web マスターはそれらをダウンロードすることを忘れないでください。もちろん、サンプル ページに同じような CSS スタイル シートが多数含まれていると、Web サイトは必然的に繰り返しの多いものになってしまいます。ウェブサイトには独自のスキルが必要です。
6. 無効な URL または重複した URL を減らします。 Web サイトを最初から構築するプロセスでは、URL をできるだけ統一するように努め、接続に動的ページを使用しません。スパイダーの観点から見ると、スパイダーは動的ページを好まないからです。
7. 無効なコンテンツ間のリンクを減らします。多くの場合、以前の Web サイトの構造やコンテンツ ページが変更されるため、削除されたコンテンツが残されます。これらを適時にクリーンアップし、管理者ツールを使用してこれらの無効なリンクを削除し、スパイダーの重複を回避する必要があります。その結果、状況が発生します。ステータスコード 200 に似ています。
ウェブサイトの構築は人間の体のようなものです。そのため、ウェブサイトが権威やランキングを失ったとしても、それが必ずしもフレンドリーリンクやウェブサイトの修正などによって引き起こされているとは考えないでください。重複コンテンツが原因で発生する問題を軽視すべきではありません。短期的にはデメリットは見られないかもしれませんが、時間が経つにつれて、Web サイト開発の安定性は保証されなくなります。この記事は、痔の治療法http://www.cqtaihai.com/の編集者によって公開されました。転載をお知らせください。
(編集者:Chen Long) 著者 cptai の個人スペース