Web サイトの最適化を行う Web マスターは、検索エンジンの最適化を行っているときに、自分が管理する Web サイトがブロックされるか罰せられるかについて、多かれ少なかれ遭遇したり、同志が話したりするのを聞いたことがあると思います。この問題についてはまったくわかりません。する?
まず、自分の Web サイトが本当にブロックされているか、処罰されているかどうかを確認し、さまざまな検出方法で 1 つずつ排除する必要があります。ブロックされている場合は、その理由は何か。ただちにソースを見つけて修正し、場合はどうすればよいか。それは罰せられます。
検索エンジンでドメイン名を検索するか、site コマンドを使用します。Web サイト上のすべての Web ページが検索エンジンのデータベースに存在しない場合は、サーバーに問題があるか、ロボットに問題がある可能性があると結論付けることができます。不正行為の状況が検出される。しかし、検索エンジンにデータが残っているにもかかわらずランキングが下がった場合、考えられる可能性は 2 つだけです。Web サイトに不正行為の疑わしい兆候があり、罰せられたのか、それとも検索エンジンのアルゴリズムが変更されたのかです。この順位の低下は 1 位から 2 位への低下ではなく、大幅な低下であり、ウェブマスターの注目を集めるはずです。
最近ダウンタイムはありましたか? サーバーの設定は正常ですか? 検索エンジンのスパイダーがクロールするようになったときに、サーバーは 200 のステータス コードを返しますか? サーバーに問題がある場合、それは一時的な現象に過ぎません。
robots.txt ファイルは、検索エンジンのスパイダーが特定のディレクトリやファイルをクロールするのを防ぐために使用されますが、この機能は便利ですが、間違いを犯しやすいです。 robots.txt ファイルの設定に問題がある場合、検索エンジン スパイダーは Web サイトをクロールできません。正常な設定と誤った設定の差は非常に小さい場合があるため、正しい設定であることを確認するために何度も確認する必要があります。
キーワードの選択、タイトルタグの書き方、キーワードの位置密度、ウェブサイトの構造など、具体的な最適化手法や手段は数多くあります。しかし、これらのテクノロジーをすべて使用すれば、問題はすぐに解決します。
過剰な最適化は、ペナルティをランク付けする重要な理由となることがよくあります。ここには程度の問題があります。どのレベルの最適化が適切で、どのレベルが過剰最適化であるかは、経験を通じてのみ習得できます。大丈夫なら、チャンスを逃さないでください。
多くのページには、JavaScript リダイレクトまたはメタ更新リダイレクトが含まれていますが、これらは疑わしい手法とみなされる可能性があります。 302 ターンでも問題が発生する可能性があります。多くの Web マスターが同時に多数の Web サイトを管理し、これらの Web サイト間で相互リンクを行うため、問題が発生する可能性が非常に高くなります。一人の人間が 4 ~ 5 個の Web サイトを所有するのは理解できますが、40 ~ 50 個の Web サイトがあり、それぞれの Web サイトは大きくなく、低品質であり、それらが相互にリンクされている場合、これは疑わしいです。
エクスポートされたリンクを確認してください。関連する Web サイトのみにリンクされていますか? リンク先の Web サイトがブロックされたり、罰せられたりする日は遠くありません。ブロックされるか罰せられます。隠された Web ページがないか注意深く確認してください。大量のスパム リンクがないか確認してください。Web サイトでどのような方法が使用されているかを最もよく知っているのは Web 管理者だけであり、外部の人にはわかりません。一目でわかります。しかし、ウェブマスター自身は、自分がこれらの疑わしい方法を使用したかどうかをよく知っているはずです。
したがって、注意深く観察する必要があります。問題が発生した場合は、一度見ただけでは問題を見つけることができません。この記事は気泡コンクリート設備ネットワークhttp://www.htjiaqi.comによって独占的に提供されています。転載用のリンクを残してください。
担当編集者:パーソナルスペースを愛する襄陽作家