很多朋友在論壇裡發文說自己的網站看了IIS日誌後有被百度蜘蛛爬過但是沒有收錄的問題,這跟百度的搜尋引擎的原理是有關係的首先,搜尋引擎會建立一個網頁地圖(Webmap ),記錄網路的連結結構,再使用網頁抓取程式(Robot)根據網頁地圖來抓取(Crawl)品質好的網頁,儲存到網頁快照資料庫。
然後,索引程式(Indexer)會將快照資料庫中的網頁編號儲存到網頁索引資料庫中,在這個過程中,會利用相關技術去掉作弊網頁(Spam)。當使用者輸入一個查詢詞搜尋時,查詢程式會使用這個查詢詞到索引資料庫中比較,經過相關性計算後,依照相關程度對網頁進行排序,相關性越高的排得越靠前。相關性的計算是包含各種因素的綜合結果,例如:網站標題或網頁內容對查詢詞的匹配、網頁被連結的次數等。所以大家只要耐心等待搜尋引擎的下次更新就可以看到自己的頁面了。
百度收錄我想這個問題,一直都困擾著很多當SEO的朋友,或是正在學習SEO的朋友。
那麼今天論策就給大家簡單說說百度收錄技巧
首先要說的是網站本身的問題,很多人都喜歡在網站上線前,就想搞多點內容在上線,就去複製別人的文章或別人的資料。也可以採取偽原創。
其實這點是錯的,當然網站上線有足夠多的資料給百度爬蟲爬是好事,但是如果你是新站的話,他爬回去的是重複的內容,那麼搜尋引擎對你又是一個怎樣的看法呢?
我想不用論策說大家都知道了,這就百度收錄技巧之一。
第二就是去引百度的爬蟲,爬蟲就是透過一個起點的網頁來進行爬行和抓取內容的,所以新站上線,你找幾個百度常更新的地方發點連接就可以了,這是百度收錄技巧二。
第三就是
最後我跟大家說幾個引爬蟲的好地方,admin5 chinaz bianews這兩個地方都是百度非常喜歡的地方,大家可以去試試,論策的方法只是個人建議,並不是權威,只是告訴大家一個想法而已,至於如何還是靠自己慢慢發現。
好了文筆到此為止吧。
本文由企贏線上(www.hnqiying.com)首創轉載請註明出處。作者:論策