作为一名SEOer,URL规范化是一个必须解决的问题,规范URL说白了就是当有几个不同的URL指向同一个页面时,告诉搜索引擎哪个URL才是你想要,而不是让搜索殷勤自己去判断,所以规范URL是对搜索引擎友好的一个做法,下面我就分享下URL规范化的几种方法。
第一种,301重定向,这个可以说是大家最常见的,也是用到最多的,301重定向一般都是用在新老域名、新旧URL、及把不带www的域名转到带www域名上,不论是虚拟主机、独立服务器都可以重定向,如果是虚拟主机的话,首先要确定该主机是否支持301,然后根据操作系统、和服务器类型选择不同的规则进行301,在这里不作过多解释,独立服务器做301也可以参考教程,希望大家可以自己去尝试,自己摸索到的比别人教你的要记的牢。不过切记不要把301做成302了,所以做完应该测试下是否是301。
第二种,“canonical”标签,这个可能对很多人来说很陌生,这个标签就是建议搜索引擎从几个不同URL中选择目标URL,但这只是个建议,不是命令,具体用法可以参考如下:对于网站来说,包含多个列有同组产品的网页很正常。例如,一个网页可能按字母表顺序显示产品,而其他网页则按照价格或评分显示相同产品。例如:
如果 Google 知道这些网页的内容相同,我们可能只会将搜索结果的一个版本编入索引。我们的算法会选择我们认为可以最好地回答用户查询的网页。不过,现在用户可以通过将 <link> 元素和 rel="canonical"属性添加到该网页非规范版本的 <head> 部分,为搜索引擎指定规范网页。添加此链接和属性可以让网站拥有者识别出哪些网页具有相同的内容,从而向 Google 提出建议:“在内容相同的所有网页中,此网页最有用。请将该网页排在搜索结果中靠前的位置。”(本段来自GG帮助文章)
第三种,Robots.txt,如果一个网站有重复内容或出现上面那种情况,大家也可以通过robots屏蔽掉自己认为不需要参与排名的URL。
第四种,Noindex标签,原理同上,也就是让你不需要参与排名的URL不被搜索引擎索引,用法:把该语句<Meta name="Robots" Content="Noindex"> 加在相关网页的head部分。
以上就是几种规范URL的方法,本人力挺第一种和第二种方法,大家仅供参考,本文由上海讨债公司http://www.hu-tz.com站长编写,转载请保留。
感谢 杭州讨债公司 的投稿