SEO與技術是密切相關的,許多人都認為做SEO是不需要技術的,其實這是一個誤解,如果你不懂技術,就不可能把SEO做得很成功,出了問題也不能做出科學的決策,在許多人的眼裡,SEO無非是每天發一些文章、發一些外鏈這樣,如果你也這樣理解SEO,那說明你的水平還處於一個非常初級的階段,即使搜尋引擎是一個技術很強的東西,那麼,我們要想在它上邊獲取相應的流量,我們必需具備一定的技術,至少應該理解它的原理,那麼在網站的頁面是否符合SEO的技術要求上,我們應該注意哪些問題呢?
1.使用文字瀏覽器來檢查你的網頁,看網頁中重要的URL連結是否能夠被文字瀏覽器抓取得到
常用的文字瀏覽器是lynx,大家可以在linux環境下安裝它,它在瀏覽器你的網頁時,幾乎與搜尋引擎蜘蛛看到的內容一致,所以大家常常使用它來測試網頁的可抓取性,如果你的頁面中重要的連結使用了JS、Ajax等技術,lynx瀏覽器是看不到這些連結的,同樣的搜尋引擎也抓取不到這些連結。因此在網站上線前,可以先用文字瀏覽器檢查一下主要的網頁,看看是否使用了對搜尋引擎不友善的技術
2、允許搜尋引擎蜘蛛在不使用可追蹤其網站存取路徑的會話ID 或參數的情況下抓取您的網站
一些session id對於追蹤使用者的存取行為來說是很有效的,但是對於搜尋引擎來說,就不是好的做法了,如果使用了這些技術,你的網頁可能被索引得不完整,因為搜尋引擎程序還不能排除那一些從URL上看上來不同,但網頁內容卻完全相同的網頁。對於收錄是不友善的。
3.確保您的網頁伺服器支援If-Modified-Since HTTP 標頭
如果你的伺服器支援if-modified-since-HTTP標頭的話,當搜尋引擎蜘蛛程式抓取到你的網頁的時候,會先檢查這個If-Modified-Since HTTP 標頭值,透過這個值,搜尋引擎爬蟲程式可以判斷你的網頁自從它上次抓取後,是否有所變化,如果沒有變化,它便可以不用下載相同的頁面內容,節約蜘蛛資源,也節約你的伺服器頻寬,這樣蜘蛛就可以抓取更多其他的頁面。
4.設定合理的robots文件
每個網站最好都設定一個robots文件,如果你的網站沒有任何內容不想被搜尋引擎索引,那麼可以建立一個空的以robots為命名的文件,上傳到你網站的根目錄下,透過robots文件,我們可以讓搜尋引擎抓取某些目錄,而不抓取某些目錄,例如一些範本文件,可以禁止搜尋引擎抓取,一些後台登入文件,也可以利用robots文件加以禁止收錄,在設定robots文件時,一定要小心,以避免把一些重要的文件給禁止了,我們可以使用谷歌網站管理員工具進行測試。
5、對網站進行相容性測試,以確保在每個瀏覽器中都可以正確顯示
我們在網站上線前,最好先做大量的瀏覽試驗,確保網頁內容可以正確的顯示在所有的瀏覽器上邊,例如IE的有一個IE工具測試,可以測試各個IE版本的顯示效果,Google瀏覽器也有類似的插件,可以對瀏覽器的兼容性進行測試,等檢測完都能正常顯示時,再上線,在平時的維護中,也可以經常去測試頁面顯示的兼容性
6.經常使用一些前端測試工具來測試網頁的效能
例如我們可以使用Google的page speed工具以及yahoo的yslow對網頁進行效能的測試,這兩個工具還可以指出你的網站中頁面需要改進的地方,我們可以按照裡邊描述的步驟進行前端頁面優化,例如啟用GZip、啟用keep-alive、使用CSS sPRites技術、合併JS與CSS等。以上內容由中國美容人才網www.mrrencai.com在admin5首發,轉載請保留網址,謝謝!
責任編輯:揚揚作者keepmove 的個人空