SEOは中国でももはや馴染みのないものではなく、産業として確立されていますが、業界にはまだ科学的かつ体系的な分析手法が存在しません。その理由はおそらく、検索エンジン最適化業界の特殊性によるものです。検索エンジンはアルゴリズムを厳しく守り、理由を理解するのが難しいガイドラインのみを公開します。非常に多くの SEO 担当者が、具体的なルールをまったく知らないままゲームをプレイしており、これがこの業界の混乱の原因となっています。
私は「Google ウェブサイト品質ガイドライン」の重要性を繰り返し強調してきましたが、これは検索エンジンがウェブサイト所有者に指示する唯一の正しいルールだからです。これらのルールさえ理解していなければ、従うことができるかどうかはわかりません。より権威ある指導を得るために。しかし、実際の戦闘では、この「ガイド」をよく読み、検索エンジンのルールを多くの人よりよく知っていますが、これを知っているだけでは十分ではなく、一連の科学的かつ体系的な分析手法がさらに前進するのに役立ちます。
SEO が長年にわたって発展してきた現在、SEO を行うために知覚分析に依存するような分析手法はもう存在すべきではないと私は考えています。この分析方法でよく使用されるステートメントは、次のとおりです。検索エンジンは何をすると思いますか。たとえば、検索エンジンはそれほど愚かではないと思いますし、間違いなくこの問題に対処できると思います。検索エンジンはこの要素をランキング要素の 1 つとみなすと思います... SEO を行うために知覚分析に依存している場合、SEO トラフィックの変化曲線も非常に知覚的になります。もちろん、根拠のない憶測や伝聞をするべきではありません。たとえば、理論的根拠なしに検索エンジンが何をするかを推測したり、関連する検索エンジン担当者や権威ある人物の講演に盲目的に従うなどです。
検索エンジンは具体的なアルゴリズムを教えてくれないので、どうすればこの科学的かつ体系的な分析手法を確立できるのでしょうか?答えは、間違いなく正しいとわかっている理論から始めて、それを実際にゆっくりと進化させていくことです。
前回の記事「Web ページの読み込み速度が SEO 効果に与える影響」の分析プロセスは、有名な理論に基づく分析に基づいていましたが、その後、SEO トラフィックに影響を与える別の正確な要因が得られました。このプロセスにおいて、私が正しいと確信している理論は次のとおりです。検索エンジンのクローラーは、Web ページを含める前にそのページをクロールする必要があります。記事内の次のデータ分析によると、Web ページの読み込み速度が SEO トラフィックに大きな影響を与えると結論付けることができます。
次に、Web ページの読み込み速度に影響を与える可能性がある対策を分析してください。 ネットワーク環境、サーバー ハードウェア、CMS 自体はすべて、Web ページの読み込み速度に影響を与える可能性があります。これらのいずれかを最適化すると、Web ページの読み込み速度が向上します。ネットワーク環境が SEO トラフィックに影響し、サーバー ハードウェアが SEO トラフィックに影響し、CMS 自体の速度が SEO トラフィックに影響する、とすぐに結論付けることができます。
次に、CMS 自体を最適化するにはどうすればよいかを分析します。 Gzip 圧縮の有効化、CSS ファイルと JS ファイルの結合、DNS クエリの削減、キャッシュの有効化などはすべて、CMS 自体の速度を最適化できます。 ...これらのことはよく知られているように見えますが、それは、これらの提案が「Google ウェブマスター ツール」の「ウェブサイトのパフォーマンス」で示されているためです。しかし、上記の分析プロセスによれば、「ウェブサイトのパフォーマンス」で言及されている最適化はすべて CMS 自体の最適化であり、ネットワーク環境やサーバー ハードウェアの最適化については言及されていないことがわかります。これら 2 つの要素が SEO トラフィックに実際に影響を与えることを確信しているだけです。ある日、「Google Blackboard」や Google の公式ブログ (ファイアウォールをバイパスする必要がある) に、適切なサーバー ホスティング プロバイダーの選び方を伝える記事が掲載されたとしても、その理由はすでにわかっているので、驚かないでください。 Google は、特定の要素を最適化する方法を伝えるために常にこの方法を使用してきましたが、Google の立場から、なぜこれを行う必要があるのかについて詳しく説明することはありません。
データ分析を通じて、誰がより大きな影響を与え、誰がより小さな影響を与えているかを知ることもできます。
このようにして、多くの常識的な要素が段階的に進化する可能性があり、この分析プロセスは非常に科学的です。自分自身に対しても他人に対しても、原則を非常に明確に説明できます。そして、この進化のプロセスでは、SEO トラフィックを制御できるようになってきていることがわかります。進化の各段階は、検索エンジンについての知識が少し増え、SEO の知識構造がさらに改善され、同時に SEO トラフィックを制御する能力が強化されたことを意味します。同時に、優れた SEO では SEO と Web デザイナーおよびエンジニアの利益が衝突しないため、Web デザイナーやエンジニアとの衝突がますます少なくなっていることがわかります。
知識構造、SEO制御性、部門関係
あなたがそのような分析プロセスをたくさん経験している限り、それは間違いなく多くの人々の元々のSEOの知識構造を破壊するでしょう。なぜなら、過去に流通したSEO手法の多くは主に知覚分析に基づいており、なぜそれを行うべきなのかの説明がなく、データによる裏付けや理論的な裏付けさえなく、要点を逸脱していたからです。 「単語の分割と索引ライブラリ」で、詳細だと思っていることは実際には重要なポイントであり、重要なポイントだと思っていることは実際には無視できると言いました。
では、日々の SEO 作業において、そのような分析プロセスを実行するためにどのような機能がサポートされているのでしょうか?
この分析プロセスで「SEO の学習方法」で述べた 4 つの能力をまだ覚えているかどうかはわかりません。
1. 検索エンジンに関連する技術と原理を理解する: 検索エンジンを基本的に理解し、正しいはずの多くの理論を判断し、分析する価値のある多くの手がかりを見つけることができます。
2. Web サイト制作に関連するテクノロジーを理解する: Web サイト上のどの要素が検索エンジンのどの側面に影響を与える可能性があるか、問題を解決するためにどのような方法を使用すればよいかを知ることができます。
3. データ分析能力: 既存のさまざまな要因が SEO トラフィックにどのように影響するかを理解し、この能力を利用してより多くの要因をマイニングすることができます。科学的かつ体系的な SEO 分析プロセスは、最初から最後までデータのサポートと切り離すことができません。
4. ランク付けしたい検索エンジンを理解する: どんなに努力しても、統計的にも理論的にも理解できない問題がいくつかあります。人間と同じように、どの検索エンジンにも特定の気質があります。この検索エンジンに関する知識があれば、答えを得ることができます。同時に、この検索エンジンを理解することで、より多くの分析要素を得ることができます。
最後に、常識に基づいた科学的かつ体系的な SEO 分析のこの方法は、一部の検索エンジンのアルゴリズムを理解するよりも効果的に SEO トラフィックを制御できます。
たとえば、以前、私の友人が、外国貿易の B2C ウェブサイトの創設者は Google 出身だから、SEO で優れた仕事ができるはずだと私に言いました。その理由は、検索エンジンを自分で使ったことがある人だけが理解できるでしょう。たとえば、Alibaba の B2B Web サイトも検索エンジンと見なすことができます。私は並べ替えルールを知っていますが、科学的かつ体系的な方法が存在する前に、販売者の Web サイトを提供して、Alibaba でトラフィックを獲得するように頼まれたら、私はそうします。間違いなくうまくできていません。検索エンジンのアルゴリズムは加算、減算、乗算、除算ではないため、この要素とあの要素の組み合わせが良好なトラフィックにつながるわけではありません。検索エンジンの設計者は、特定の要素の重みと、生成される可能性のあるおおよその結果を知っていますが、特定の結果を制御することはできません。そうでなければ、Baidu の従業員は、検索結果の正確性を確認するために毎日何千もの単語を検索することはありません。 Google の成功の一部は、Yahoo が自社の検索テクノロジーを採用したことにより、Google が大量のデータを蓄積し、アルゴリズムを実践し、改善することができたという事実によるものです。
さらに、検索エンジン内では、各要素の重みを知っている人はほんの一握りです。検索エンジンを設計するエンジニアのほとんどは、特定の問題を最適化して解決する責任を負っています。クローラーの効率を向上させる作業と、コンテンツの重複排除を担当するエンジニアがインデックスの重複コンテンツを削減します。 この検索エンジンを設計したエンジニアですらこんな感じですし、ましてや他国の支社の人間ですらそうです。そうでなければ、Baidu と Google を辞めた多くのエンジニアがずっと前にアルゴリズムを漏洩していたでしょう。
オープンソース プログラムを使用して小規模な検索エンジンを作成できれば、この問題をよりよく理解できるでしょう。検索エンジンのアルゴリズムを自分で設定したとしても、その後の検索結果を予測することはできません。そして、検索エンジンであることと、検索エンジンのトラフィックを促進することは別のことです。そうしないと、Google は元の Web ページの読み込み速度が SEO トラフィックに影響を与えることに気づきません。
記事ソース: http://www.semyj.com/archives/1032著者: Guoping