身為一個SEOer,URL規範化是一個必須解決的問題,規範URL說白了就是當有幾個不同的URL指向同一個頁面時,告訴搜尋引擎哪個URL才是你想要,而不是讓搜尋殷勤自己去判斷,所以規範URL是對搜尋引擎友善的做法,下面我就分享下URL規範化的幾種方法。
第一種,301重定向,這個可以說是大家最常見的,也是用到最多的,301重定向一般都是用在新舊域名、新舊URL、及把不帶www的域名轉到帶www域名上,不論是虛擬主機、獨立伺服器都可以重定向,如果是虛擬主機的話,首先要確定該主機是否支援301,然後根據作業系統、和伺服器類型選擇不同的規則進行301,在這裡不作過多解釋,獨立伺服器做301也可以參考教程,希望大家可以自己去嘗試,自己摸索到的比別人教你的要記的牢。不過切記不要把301做成302了,所以做完應該測試下是否是301。
第二種,「canonical」標籤,這個可能對很多人來說很陌生,這個標籤就是建議搜尋引擎從幾個不同URL中選擇目標URL,但這只是個建議,不是命令,具體用法可以參考如下:對於網站來說,包含多個欄位有同組產品的網頁很正常。例如,一個網頁可能會按字母順序顯示產品,而其他網頁則按照價格或評分顯示相同產品。例如:
如果Google 知道這些網頁的內容相同,我們可能只會將搜尋結果的一個版本編入索引。我們的演算法會選擇我們認為可以最好地回答使用者查詢的網頁。不過,現在使用者可以透過將<link> 元素和rel="canonical"屬性加入到該網頁非規範版本的<head> 部分,為搜尋引擎指定規範網頁。新增此連結和屬性可以讓網站擁有者識別出哪些網頁具有相同的內容,從而向Google 提出建議:「在內容相同的所有網頁中,此網頁最有用。請將該網頁排在搜尋結果中靠前的位置。
第三種,Robots.txt,如果一個網站有重複內容或出現上面那種情況,大家也可以透過robots屏蔽掉自己認為不需要參與排名的URL。
第四種,Noindex標籤,原理同上,也就是讓你不需要參與排名的URL不被搜尋引擎索引,用法:把該語句<Meta name="Robots" Content="Noindex"> 加在相關網頁的head部分。
以上就是幾種規範URL的方法,本人力挺第一種和第二種方法,大家僅供參考,本文由上海討債公司http://www.hu-tz.com站長編寫,轉載請保留。
感謝杭州討債公司的投稿