假如搜尋引擎無法很好的遊覽到我們網站的內容,那麼我們即使在站點投入多大的精力也都是竹籃打水一場空。為了避免該事情發生最好的解決之道就是我們能夠很完整的去規劃好我們整個站點的結構。
首先,我們在開始建立我們網站之前,我們都是需要先去好好的分析搜尋引擎爬行的模式與規律,因為我們都知清楚搜尋引擎是藉助「蜘蛛」爬行我們網站原始碼進行抓取鏈接,從而很好蒐集我們的網站頁面,從而入庫到搜尋引擎資料庫,這就是搜尋引擎簡要的收錄過程,同時搜尋引擎會根據一定的演算法,如頁面的速度、社會訊號等等進行權重的分配與排名,這些都是我們在蓋站前所需要了解的。
如果搜尋引擎蜘蛛如果能夠很好的訪問、瀏覽、抓取我們的頁面的話,必然的對我們網站的權重排名會有很大的提升,那麼如何讓搜尋引擎戀上你的網站呢?下面筆者列舉筆者的SEO漫步者站的五個操作。
(一)簡化我們的導航
相信很多的站長在構建站點的時候都和筆者一樣在導航設計這一塊特別的糾結,因為導航的設置對於站點整體的站點權重傳遞以及用戶的友好體驗都是極為重要的,同時如果我們的導航設定負責的話,程式碼難免會更加的負責,搜尋引擎對於較為複雜的程式碼爬行通常都是比較困難或說不易於抓取,而且複雜的導航無法讓用戶快速的找到想要的內容,無疑是對用戶友好體驗的一大打擊,對此,如果想要讓搜尋引擎蜘蛛戀上你的網站的第一步,首先就要簡化你的導航欄。
簡單處理方法:盡可能的簡化我們的網站導航,讓使用者可以三次點擊之內找到想要的目錄,我們可以再主導航上設定下拉導航,這樣就可以很好的展現三四級目錄,同時不會讓頁面臃腫。
(二)盡可能減少過多的站點內容顯示圖片和腳本文件上
我們知道搜尋引擎的抓取原理是藉助虛擬工具「蜘蛛」來進行辯解以文字、腳本為主的頁面內容,然而以目前的搜尋引擎技術,對於那些Flash、圖片上面的內容搜尋引擎來說還無法實現識別,所以這無疑也是網站UI設計者的一大煩惱問題。
簡單處理方法:借助一些轉換內容的形式使其網站程式碼可以讓搜尋引擎搜尋引擎識別,並且我們也可以藉助蜘蛛模擬器來模擬蜘蛛爬行我們的網站並進行觀察,如若發現在抓取當中有過多的內容遺失或無法抓取的話,我們就需要進行修改。
(三)切勿不連貫的連結操作
在我們建立網站內鏈的時候,我們一定要很小心的去命名,因為我們都知道搜尋引擎是不可能和人一樣可以智慧的判斷思維標準的,它通常是透過我們的URL為標準進行評判,有時候兩段不同的程式碼內容確連結相同的URL位址,那麼這麼時候搜尋引擎一定會找不到北,到底哪個內容是你連結頁面所想要展示的內容?雖然我們看起來可能很簡單,知道其中的邏輯,但是畢竟搜尋引擎搜尋引擎還不足夠的人性化,所以很多時候我們還是需要按照搜尋引擎喜愛的形式來進行連結。
為了避免引導搜尋引擎不能夠判斷的內容,所以我們必須要使用連貫相同的程式碼進行指向鏈接,讓我們的指向連結所表達的內容唯一性。
(四)合理利用301重定向
301重定向是我們會常常用到的技術。那麼什麼時候我們會用到301重定向呢?首先我們其所扮演的角色,它是搜尋引擎在爬行頁面的時候,進行跳到了我們指向的那個頁面,通常我們都用於域名重定向,把不帶www位址重定向到有www的上面,其實不然,很多情況下我們的網站會出現重複的內容,同時可能這些重複的內容也會被搜尋引擎全部收錄,這個時候就會產生很多垃圾的頁面,這個時候如果直接刪除可能會產生更多的死鏈接,那麼我們就可以合理的借助301重定向,把一個重複的頁面跳到另一個頁面之上,這樣不僅可以避免重複的內容,同時也可以減少產生的死連結。但是我們要注意一點,就是不要多度使用301的重定向。
(五)正確的使用sitemap
如果想要網站收錄更好,對搜尋引擎更加的友好,sitemap是一個能夠讓搜尋引擎快速爬行抓取的一個不錯的方法,但是如果使用不正確,說一個錯誤的sitemap反而對我們的站點抓取是極為不利的,所以說我們必須確保sitemap的指示準確性,當然現在一般的CMS後台都是自備sitemap生成的,所以一般我們都是一鍵生成即可。當然如果說你的網站是運行在一些平台之上的話,那麼我們就需要下載一些自動生成網站sitemap的插件了,如果還不行話,我們可以利用HTML程式碼進行手動的建設一個sitemap頁面,並且在建成之後提交給搜尋引擎即可。
總結:通常搜尋引擎不喜歡網站的原因除了網站內容不是原創或過度採集之外,一般都是這五種情況,當然也不乏一些細節性錯誤的地方,但是畢竟每個網站的情況不同。文章由網頁遊戲http://www.2763.net站長提供,轉載請保留出處。
(責任編輯:momo) 作者hoole 的個人空