-
網站優化的過程中,我們最怕出現的情況就是被降權,因為網站權重直接會影響到關鍵字排名,而沒有排名就沒有流量,沒有流量就沒有轉化,最後沒有轉化的話,當然就沒有收入啦。其實嚴格來講,導致網站被降權的因素很多,今天我們就從網站的設計內容方面談談導致網站降權的原因。
1.iframe、js和Flash過多
我們知道,一個有良好使用者體驗的網站必定是圖文並茂的。但如果頁面含有過多的flash或js或iframe等框架則會導致搜尋引擎爬行困難。由於搜尋引擎目前為止尚不能讀懂flash內容,也很難抓取框架內容,這就會導致頁面出現不利於蜘蛛抓取的程式碼,同時會稀釋程式碼中關鍵字的密度等。
2、缺少sitemap地圖
如果我們網站的欄位和內容頁面太多,就需要製作一個給蜘蛛看到導航地圖,這就是sitemap網站地圖。 Sitemap包含有html和rss兩種類型,有必要的話,把這兩種類型的地圖都製作好並放在根目錄下,同時我們在每一個頁面的頂部或者底部都給出sitemap的url,引導蜘蛛爬取。
3.內部連結數量過多
我們都知道頁面要做好內鏈,但過多的內鍊和不合理分佈的內鏈卻會讓效果適得其反。良好的頁面應包含相關、熱點、推薦、隨機等板塊,頁面內鏈的數量應控制在100以內,這樣既有利於收錄也有利於使用者體驗。
4.內容位元組數過少
搜尋引擎要求頁面有更多的原創內容出現,而許多站長並不能夠花太多時間去做這個內容,於是我們經常發現有些頁面主題內容位元組數過少。這樣做的危害就會導致頁面重複度過高,可能會被認為是相同頁面或相似頁面。
5.alt堆積關鍵字
由於搜尋引擎尚不能讀取圖片內容,因此我們需要在alt裡加入文字描述。 Alt描述應該是一句通順的語句而不是胡亂堆積關鍵字。
6.死連結
有時我們必須面對網站改版,於是很多頁面對於新站來說都不適合了,這樣很多站長可能會把原來的頁面刪除了。由於搜尋引擎資料庫裡一句存在了這些頁面的url,這是我們就要做好404頁和404狀態碼。
7、bobots.txt錯誤
網站根目錄下的robots.txt裡的內容是告訴搜尋引擎哪些內容是允許存取的,哪些內容是不允許存取的。很多人不注意robots檔案的設置,特別是站點測試時所加入的一些屏蔽蜘蛛的屬性,如果上線時忘記修改,勢必造成收錄困難。
8.廣告聯盟過多
很多草根站長,特別是只靠流量賺取廣告點擊的站點,頁面或加入許多廣告聯盟的廣告,其實廣告加的過多也會影響的頁面加載速度,況且很多廣告也是js調用的,這些都會對頁面產生負面影響。
9.網站載入速度過慢
之前的文章中我說過伺服器影響排名的問題,這裡就不過分講述了。總之,伺服器的穩定性和載入速度直接影響到排名和權重。
以上從9個面向分析了設計內容方面導致網站降權的原因,當網站被將降權時不妨先按照此思路先認真反思下,再及時改正以便恢復權重。本文由腕式電子止鼾器http://www.koloyo.com站長合肥媽媽原創,版權問題你懂的。
感謝合肥媽媽的投稿