搜尋引擎抓取頁面,不是和人一樣,從網頁上去看頁面,而是從這個頁面的代碼去看!滑鼠右鍵,查看源文件,我們就可以看到改網頁的HTML代碼,這就是蜘蛛要讀取的內容,從開始讀取到最後。也有人說,是從頁面的上到下,左到右的讀取的,我覺得更科學的講應該是從HTML程式碼的前面一直讀取到最後!
為什麼要精簡程式碼?
蜘蛛是讀取代碼從上面到下面,如果你有很多的和正文無關的代碼,蜘蛛首先要讀取,蜘蛛能力有限,可能還沒有讀到正文,就已經累的離開了,就這樣的情況,更談不上排名了,你必須知道蜘蛛能力有限,我們不要為難蜘蛛,用最精簡的程式碼,讓正文及早體現出來,讓蜘蛛成功抓取。
如何精簡程式碼?
1)精簡程式碼一般來說,我們的頁面採用DIV+CSS,很多人說用DIV+CSS有利於SEO,這句話我贊同,但是用了DIV比TABLE排名一定好,這是無稽之談!因為用DIV+CSS的最重要的是精簡程式碼,有利於搜尋引擎抓取!
2)無關代碼的外置
例如我們的CSS程式碼,應該採用CSS外置,以及一些廣告程式碼,特效程式碼都採用JS外置! 在網頁程式碼裡呼叫就可以了,這就大大精簡了網頁程式碼。
3)內頁的頭部訊息
在網站的內頁,例如文章頁面,頻道頁面,其實頭部訊息(LOGO,頂部廣告,頂部搜尋框),這些對於這個文章頁面來說都是無關訊息,都可以調用出去,讓你的正文在程式碼裡更加靠前。當然你要保證基本的導航,比如返回首頁,各個欄目的鏈接,以及最新文章、相關文章,熱門文章等內部鏈接都要保障,但是我覺得這些代碼要在正文下面,文章頁面首先體現的應該是文章的標題,內容。 。其次才是這些相關的連結資訊。這樣就大大精簡了網站的程式碼,有利於內頁長尾關鍵字的競爭!
4)程式自身產生的冗餘程式碼
尤其是.NET編寫的程序,會自動很多冗餘的垃圾代碼,這些代碼不僅僅大大降低的網頁的速度,也同樣被讓蜘蛛累到趴下,蜘蛛是模擬人的行為的,曾經在我們公司的網站就曾經出現過,程式設計師編寫的.NET,導致網頁產生大量的冗餘程式碼,當時一個馬虎沒有留意,後來導致這一批頁面不僅速度拖慢,之後被百度在搜尋引擎全部刪除,因為大量的冗餘程式碼,讓這一批網頁出現了頁面相似度的問題,而導致百度刪除結果,之後馬上解決了。所以這些問題我們一定要非常非常的注意!
先總結這4點,總而言之,言而總之,我們的網頁程式碼要十分精簡,無關內容外置,網頁主體內容提前,相關內容滯後,要了解每張網頁的使命。例如文章頁面來說,上面的LOGO等頂部資訊就是多餘程式碼,應該外置只要參考這個原則去精簡程式碼就可以。
作者: 戴仁光@黑色幽默
部落格網址: http://www.dairenguang.com
本文網址:http://www.dairenguang.com/note/20090720535.htm
版權所有轉載時必須以連結形式註明作者及原始出處及本聲明。