検索エンジンの出現により、Web サイトに帰属意識が生まれるようになりました。私が初めてオンラインにアクセスしたとき、Web サイトにアクセスするには URL バーに URL を入力する必要があり、その URL には何も含まれてはなりませんでした。エラーが発生した場合は表示できないページとなります。現在、検索エンジンは多くのウェブマスターの仕事の一部となっており、検索エンジンにおけるウェブサイトのランキングを常に向上させる必要があります。ウェブサイトを構築するとき、私たちは他の人に見てもらい、トラフィックをもたらし、収益転換を達成したいと考えます。競争が激化する検索エンジンの中で、私たちの Web サイトはどのように生き残ればよいのでしょうか? 著者は、自身の血と涙の歴史をもとに、検索エンジンの生存ルールを考察します。
ルール 1: サーバーは安定している必要があります
ウェブサイトの開設は、サーバーが正常に動作し、アクセスされるかどうかにかかっています。サーバーが 3 日ごとに少量をポンプし、5 日ごとに大量のポンプをポンプする場合、特に草の根が多い現在では、サーバーに多額の費用がかかる Web サイトは検索エンジンに優しいでしょうか?ウェブマスター この時代では、専用サーバーを選択するほどのお金はないかもしれません。ただし、米国でより安価な仮想ホストを選択した場合でも、購入する前に状況を理解する必要があります。サーバーの安定性は Web サイトに大きな影響を与えます。スパイダーが Web サイトに侵入し、サーバーがハッキングされた場合、時間の経過とともに検索エンジンによってブロックされます。
ルール 2: ウェブサイトの目的が明確である
Webサイトを構築する際には、タイトル、キーワード、説明を設定します。日々の更新やメンテナンスを行う際には、オリジナリティだけでなく、記事とウェブサイトの関連性にも注意を払う必要があります。独創性はスパイダーの好意を勝ち取り、検索エンジンでの Web サイトのランキングに有益ですが、検索エンジンのスパイダーが Web サイトの内容が Web サイトのタイトル キーワードと無関係であると判断した場合、必然的にウェブサイトに対するいくつかのペナルティ。最初のルールは、検索エンジンのスパイダー クローリングの影響を反映しており、スパイダーのクローリングに直接影響します。したがって、Web サイトを更新するときは、品質を高めるために Web サイトの関連性を無視しないでください。
ルール 3: 不正行為をしない
初心者にとって、不正行為は、さまざまな方法を使用して自分の Web サイトを検索エンジンで迅速かつ上位にランクさせることができる SEO マスターに対する賞賛のようなものかもしれません。ただし、不正行為が確認されないと、ホームページがサンドボックスに侵入されたり、サイト全体が直接ノックアウトされたりするなど、非常に深刻な結果が生じる可能性があります。 Baidu のように、できるだけ「何もしない」ほうがよく、すべてのものに自然と良い順位がつきます。これは、著者を含む多くのウェブマスターが到達した結論です。Baidu のアルゴリズムは頻繁に変更され、これは、いくつかの極端な行動が Baidu によって確実に認識されることを意味します。したがって、自然の成り行きに任せた方が良いこともあります。
ルール 4: 適度に最適化する
筆者はこれについて最も深い経験を持っています。私が最初に最適化を行っていたとき、サイト内外を問わず、私のリンクは Web サイトのトップページを指しており、リンクの数も非常に多かったです。結局のところ、Web サイトのホームページがブロックされるという悲劇は幸運でしたが、私はそれが過剰な最適化である可能性があることにやがて気づき、最適化する際には細心の注意を払いました。 SEO には実行が必要だと誰もが言いますが、細部にも注意を払う必要があります。特に最適化に関しては、程度の問題を把握していないと、細部にまで注意を払う必要があり、問題が発生しやすくなります。
Web サイトは検索エンジンに依存して開発されており、競合他社の分析など、検索エンジンで生き残るためのルールは他にもたくさんあります。上記の 4 つのルールはすべて、私たち自身のウェブサイトに基づいています。検索エンジンでより良く生き残るためには、まず私たち自身から始めなければなりません。
この記事の著作権はパテ中国語ウェブサイト ( http://www.putty.ws ) に帰属します。転載する場合はその旨を明記してください。
編集長:襄陽 著者の波瀾万丈の個人空間