儘管SEO在中國已經不陌生,甚至都有形成一個產業的趨勢,但是至今業界都還沒有一套非常科學系統的分析方法。原因恐怕要歸結於搜尋引擎優化這個產業的特殊性。搜尋引擎嚴格保守他們的演算法,隻公佈一些大家很難去知道原因的指南。所以很多SEOer都在玩一個永遠不知道具體規則的遊戲,這就是這個產業混亂的根源。
我多次強調《google網站品質指南》的重要性,也因為這是搜尋引擎告訴網站主的僅有的一些正確的規則,如果連這點規則都不好好掌握,那我還不確定大家能從什麼地方得到更有權威的指導。但是在實戰中,儘管你熟讀這個《指南》已經比很多人更了解搜尋引擎的規則,不過僅僅知道這點東西是不夠的,一套科學系統的分析方法能讓你走得更遠。
我想SEO經過這麼多年的發展,已經不該再出現那種靠感性分析去做SEO的分析方法了。這種分析方法常用的語句就是:我覺得搜尋引擎會如何。如:我覺得搜尋引擎不會那麼笨,這點一定能處理好;我覺得搜尋引擎會把這個因素當作排名的因素之一…。如果你是靠感性分析去做SEO的,那你的SEO流量的變化曲線也是很感性的。當然更不能去無根據的臆測和道聽途說。如:沒有理論基礎的去猜想搜尋引擎會怎麼樣或每逢搜尋引擎的相關人員以及什麼權威人士發表什麼演說,就去盲目聽從。
既然搜尋引擎不告訴我們具體演算法,那我們要怎麼建立這套科學系統的分析方法?答案是:從你所知道的確信一定正確的理論開始,慢慢在實踐中進化。
在上一篇《網頁載入速度是如何影響SEO效果的》中的那個分析過程,就是從一個確切知道的理論去分析,然後得到了另一個確切的影響SEO流量的因素。在這個過程中,確信沒有錯的理論是:搜尋引擎爬蟲一定要抓取過那個頁面以後,才會有機會收錄這個網頁的。根據文章中那個接下來的數據分析,可以得到:網頁載入速度會在很大程度上影響SEO流量。
那接著分析,什麼措施能影響網頁載入速度呢? 網路環境、伺服器硬體、CMS本身都能影響網頁載入速度。優化其中的任何一項,都能提升網頁載入速度。馬上又可以得出:網路環境影響SEO流量、伺服器硬體影響SEO流量、CMS本身的速度影響SEO流量。
接著分析,CMS本身的優化可以做的事情有哪些呢? 啟用Gzip壓縮、合併CSS和JS檔案、減少DNS查詢、啟用快取等等都能優化CMS本身的速度。 ……這些東西,看起來是這麼的眼熟,那是因為在《google網站管理員工具》裡的「網站效能」裡,已經把這些建議都告訴你了。但根據我們上面的這個分析過程,可以知道, 「網站效能」裡提到的這些最佳化,都是CMS本身的最佳化,並沒有提到網路環境和伺服器硬體的最佳化。只不過你確定這兩個因素是確實影響SEO流量的。如果哪一天《google 黑板報》或google的官方部落格(需要翻牆)上出現一篇文章,告訴你如何挑選一個好的伺服器代管商,千萬不要驚訝,因為你早就知道為什麼了。 google一直以來都在用這種方式告訴你要如何優化一些什麼因素,只是站在他們的立場,不會詳細向你解釋為什麼要這麼做。
透過數據分析,還能知道誰影響的程度大一點,誰小一點。
很多的常識因素都可以這樣一步步進化下去,這個分析過程,是非常科學的。不管是對自己還是其他人,其中的原理你都可以解釋得非常清楚。而在這個進化的過程中,你會發現你越來越能控制好SEO流量了。每一步的進化,代表你對搜尋引擎的了解又多了一點、SEO的知識結構又完善了一點,同時,對SEO流量的控制能力又變強了一點。同時,你發現你和網頁設計師以及工程師的衝突也越來越少,因為好的SEO,是不會讓SEO和網頁設計師以及工程師的利益是矛盾的。
知識結構、SEO可控性、部門關係
只要經歷過非常多這樣的分析過程,一定會顛覆很多人原有的SEO知識結構。因為以前很多流傳的SEO方法,很多都是感性分析的居多,沒有解釋為什麼要這麼做,沒有數據上的支撐,甚至沒有理論上的支撐,所以沒有抓到重點。我在《分詞與索引庫》說過,可能你以為是細節的東西,其實是重點,你以為是重點的東西,其實都可以忽略。
那麼,在日常的SEO工作中,是一些什麼能力支撐著你去進行這樣一個分析過程呢?
我不知道大家還是不是記得我在《怎麼樣去學SEO 》提到的那四種能力,在這個分析過程中:
1,弄清楚搜尋引擎相關技術和原理:可以從根本上了解搜尋引擎,確定很多一定正確的理論,並且可以找到很多值得去分析的線索。
2,了解與網站製作相關的技術:能讓你清楚網站上有哪些因素能影響搜尋引擎的哪些方面,並用什麼方法來解決問題。
3,資料分析能力:可以了解各種現有的因素如何影響SEO流量,並依靠這種能力挖掘更多的因素。科學系統的SEO分析過程,從頭到尾都離不開資料的支撐。
4,了解你要排名的那個搜尋引擎:不管你怎麼努力,還是會有一些數據上和理論上都無法理解的問題。每個搜尋引擎就像和人一樣,是有一定的秉性的。可以透過你對這個搜尋引擎的了解來得到答案。同時了解這個搜尋引擎,也能讓你獲得更多的可以分析的因素。
最後說一下,這種從常識出發來科學系統的進行SEO分析的方法比了解部分搜尋引擎的演算法還能控制SEO流量。
或許很多人會反駁這個觀點,例如前陣子我朋友就跟我說某外貿B2C網站的創辦人是從谷歌出來的,那他們一定能做好SEO,我說那是不可能的。只有那些自己做過搜尋引擎的人才會理解為什麼。例如:alibaba的B2B網站也算是一個搜尋引擎,我是知道其中的排序規則的,但是如果給我一個商家的網站,要我在alibaba上獲得流量,在沒有一套科學系統的方法之前,我是肯定做不好的。因為搜尋引擎的演算法不是加減乘除,不是這個因素加那個因素做好了就可以獲得好流量的。搜尋引擎的設計者,知道這個或那個因素的權重大小,以及可能產生的大致結果,但是具體的結果是自己也不能控制的。要不然百度的人,不會每天搜尋上千個字語來查看搜尋結果的準確度了。而google的成功,也有一部分原因是當初yahoo採用了它的搜尋技術,google藉此累積了大量數據,實踐並改進了演算法。
而且,在搜尋引擎內部,只有極少數的人知道各個因素的權重大小,絕大部分設計搜尋引擎的工程師,都是負責某個具體的任務,優化和解決某個具體的問題,如負責爬蟲的工程師解決提高爬蟲效率這一塊的工作,負責內容消重的工程師就去減少索引重複內容。 連設計這個搜尋引擎的工程師都如此,更別提一個遠在其他國家的分公司的人員了。要不然,百度和google這麼多離職的工程師不早就把演算法洩漏了。
如果能自己用開源的程式做一個小規模的搜尋引擎,就更能理解這個問題。即使這個搜尋引擎的演算法都是你自己調配的,你也不能預料到後來的搜尋結果。而且做搜尋引擎是一回事,在搜尋引擎上拉流量又是另一回事了。不然google不會後知後覺的知道原來網頁載入速度影響SEO流量。
文章來源:http: //www.semyj.com/archives/1032作者:國平