怎样减少无效URL的爬行和索引

  • 时间:
  • 浏览:25
  • 来源:泽宇软件破解博客 - 专注共享董小明博客活动

少年老成的云晨守望同学(题外话:少年老成是好事哈。我20多岁时人家说我像40岁,我40多岁时好多人说我像200多,一个女人20到200岁能必须做到基本一个多 样子)在网络营销实战密码网站贴了个帖子:透过京东商城看国内一线B2C网站SEO通病。建议先看那个帖子再回来看本帖,不然不容易明白下面在说几个。

简单说,帖子指出一个多 严重只是现实的SEO难题报告 :很多网站,尤其是B2C,产品条件过滤系统(如选则产品的品牌、价格、尺寸、性能、参数等)会产生少量无效URL,不言而喻称为无效很多从SEO高度看的,几个URL很多能产生SEO作用,反倒有负面作用,很多几个URL不收录为好,愿因包括:

  • 少量过滤条件页面内容重复或极为之类(少量复制内容将使网站整体质量下降)
  • 少量过滤条件页面如此 对应产品,页面无内容(如选则“200元以下42寸LED电视”之类的)
  • 绝大部分过滤条件页面如此 排名能力(排名能力比分类页面低得多)却浪费一定权重
  • 几个过滤条件页面也全部都不 产品页面收录的必要通道(产品页面应该有其它内链帮助爬行和收录)
  • 爬行少量过滤条件页面极大浪费蜘蛛爬行时间,造成有用页面收录机会下降(过滤条件页面组合起来是巨量的)

如此 怎么还还可以尽量使几个URL不被爬行和索引、收录呢?前几天的一篇帖子怎么还还可以隐藏内容也机会成为SEO难题报告 讨论的是之类难题报告 ,你这个 过滤页面很多想隐藏的内容种类之一。不过可惜,我目前想如此了完美的出理 最好的措施。云晨守望提出一个多 最好的措施,我真是都无法完美出理 。

一是将你要收录的URL保持为动态URL,甚至故意越动态越好,以阻止被爬行和收录。只是,搜索引擎现在都能爬行、收录动态URL,只是技术上如此 全部都不 难题报告 。真是参数多到一定程度真是不有利于收录,但4、好几个 参数通常还能必须收录。村里人 无法确认需用几个参数不能阻止收录,很多必须当作一个多 可靠的最好的措施。只是几个URL接收内链,又如此 几个排名能力,还是会浪费一定权重。

第好几个 最好的措施,robots禁止收录。同样,URL接收了内链也就接收了权重,robots文件禁止爬行几个URL,很多接收的权重必须传递出去(搜索引擎不爬行就谁能谁能告诉我有几个导出链接),页面成为权重只进如此了的黑洞。

连向几个URL的链接配合nofollow很多完美,和robots禁止之类,nofollow在Google的效果是几个URL如此 接收权重,权重却也如此 被分配到其它链接上,很多权重同样浪费了。百度据称支持nofollow,但权重为什么会出理 未知。

将几个URL链接装到去Flash、JS里也如此 用,搜索引擎机会能必须爬行Flash、JS里的链接,只是估计只是 如此 擅长爬。很多SEO忽略了的许多是,JS中的链接不仅能被爬,不能传递权重,和正常连接一样。

不能必须将过滤条件链接做成AJAX形式,用户点击后不必访问一个多 新的URL,还是在很多URL上,URL中间加了#,不必被当成不同URL。和JS难题报告 一样,搜索引擎正在积极尝试爬行、抓取AJAX里的内容,你这个 最好的措施很多保险。

还一个多 最好的措施是在页面head部分加noindex+follow标签,意即本页面很多索引,但跟踪页面上的链接。很多能必须出理 复制内容难题报告 ,也出理 了权重黑洞难题报告 (权重是能必须随着导出链接传到其它页面的),必须出理 的是浪费蜘蛛爬行时间难题报告 ,几个页面还是要被蜘蛛爬行抓取的(只是不能都看页面html里的noindex+follow标签),对许多网站来说,过滤页面数量巨大,爬行了几个页面,蜘蛛就没足够时间爬有用页面了。

再一个多 能必须考虑的最好的措施是隐藏页面(cloaking),也很多用应用任务管理器检测访问者,是搜索引擎蜘蛛一段话返回的页面拿掉几个过滤条件链接,是用户一段话才返回正常的有过滤条件的页面。这是一个多 比较理想的出理 最好的措施,唯一的难题报告 是,机会被当作作弊。搜索引擎常跟SEO讲的判断否是作弊的最高原则是:机会如此 搜索引擎,只是你不必如此 做?机会说,三种最好的措施否是很多为了搜索引擎而采用?显然,用cloaking隐藏你要被爬行的URL是为搜索引擎做的,全部都不 为用户做的。真是你这个 情况表下的cloaking目的是美好的,如此 恶意的,但风险是存在的,胆大的可试用。

还一个多 最好的措施是使用canonical标签,最难题报告 报告 是百度否是支持未知,只是canonical标签是对搜索引擎的建议,全部都不 指令,也很多说你这个 标签搜索引擎机会不遵守,等于没用。另外,canonical标签的本意是指定规范化网址,过滤条件页面否是适用许多存疑,毕竟,几个页面上的内容老是是不同的。

目前比较好的最好的措施之一是iframe+robots禁止。将过滤部分代码装到去iframe,等于调用其它文件内容,对搜索引擎来说,这部分内容不属于当前页面,也即隐藏了内容。但不属于当前页面不等于不存在,搜索引擎是能必须发现iframe中的内容和链接的,还是机会爬行几个URL,很多加robots禁止爬行。iframe中的内容还是会有许多权重流失,但机会iframe里的链接全部都不 从当前页面分流权重,而很多从调用的那个文件分流,很多权重流失是比较少的。除了排版、浏览器兼容性之类的头疼难题报告 ,iframe最好的措施的一个多 潜在难题报告 是被认为作弊的风险。现在搜索引擎一般不认为iframe是作弊,很多广告很多装到去iframe中,但隐藏一堆链接和隐藏广告许多微妙的区别。回到搜索引擎判断作弊的总原则上,先要说这全部都不 专门为搜索引擎做的。记得Matt Cutts说过,Google只是 机会改变出理 iframe的最好的措施,村里人 还是希望在同一个多 页面上都看普通用户能都看的所有内容。

总之,对你这个 现实、严重的难题报告 ,我目前如此 自己真是完美的答案。当然,必须完美出理 全部都不 就必须活了,不同网站SEO重点不同,具体难题报告 具体分析,采用上述最好的措施中的三种或几种应该能必须出理 主要难题报告 。

而最最最大的难题报告 还全部都不 上述几个,很多有只是 你让几个过滤页面被爬行和收录,这才是杯具的开始英文英文了了。只是 再讨论。