SEO 担当者として、URL の正規化は解決しなければならない問題です。端的に言えば、URL の正規化とは、同じページを指す複数の異なる URL がある場合に、検索エンジンに任せるのではなく、どの URL が必要かを伝えることを意味します。したがって、URL を標準化することは検索エンジンに優しいアプローチです。以下に URL 正規化のいくつかの方法を紹介します。
最初のタイプの 301 リダイレクトは、最も一般的で最も使用されているタイプと言えます。301 リダイレクトは、一般に、新旧のドメイン名、新旧の URL で使用され、www のないドメイン名を www の付いたドメイン名に転送します。 www. インターネットでは、仮想ホストと独立したサーバーの両方をリダイレクトできます。仮想ホストの場合は、まずホストが 301 をサポートしているかどうかを判断し、次にオペレーティング システムとサーバーの種類に基づいて 301 の異なるルールを選択する必要があります。ここではあまり説明しませんが、独立したサーバーで 301 を行う場合は、チュートリアルを参照してください。他の人が教えるよりも自分で学習した方がしっかりと記憶されます。ただし、301 を 302 に変更しないように注意してください。変更した後で、301 かどうかをテストする必要があります。
2 番目のタイプの「canonical」タグは、多くの人には馴染みのないものかもしれません。このタグは、検索エンジンが複数の異なる URL からターゲット URL を選択することを推奨します。ただし、これは単なる提案であり、具体的な使用方法については、を参照してください。 Web サイトに、同じ製品セットをリストする複数のページがあるのは通常のことです。たとえば、あるページでは製品をアルファベット順に表示し、別のページでは同じ製品を価格または評価順に表示する場合があります。例えば:
これらのページのコンテンツが同じであると Google が認識している場合、検索結果の 1 つのバージョンのみをインデックスに登録することがあります。当社のアルゴリズムは、ユーザーのクエリに最もよく答えると思われる Web ページを選択します。ただし、ユーザーは、<link> 要素と rel="canonical" 属性をページの非正規バージョンの <head> セクションに追加することで、検索エンジンの正規ページを指定できるようになりました。このリンクと属性を追加すると、Web サイトの所有者が同じコンテンツを含むページを識別できるようになり、Google が「同じコンテンツを含むすべてのページの中で、このページが最も有用です。このページを検索結果で上位にランク付けしてください」と提案できるようになります。 ." (この段落は GG ヘルプ記事からのものです)
3 番目のタイプである Robots.txt は、Web サイトに重複コンテンツがある場合、または上記の状況が発生した場合に、ランキングに参加する必要がないと思われる URL をロボットを使用してブロックすることもできます。
4 番目のタイプの Noindex タグは、上記と同じ原理です。つまり、ランキングに参加する必要のない URL は検索エンジンによってインデックス付けされません。 使用法: <Meta name="Robots" Content="Noindex" というステートメントを追加します。 "> を該当の Web ページの先頭に移動します。
上記は URL を標準化するためのいくつかの方法です。私は 1 番目と 2 番目の方法をサポートしています。この記事は、上海債権回収会社http://www.hu-tz.comの Web マスターによって書かれたものです。再版のため。
杭州債権回収会社の貢献に感謝します