<<<<<<< .mine =======
当前位置: 首页 > SEO > 可能是最效屏蔽蜘蛛抓取的办法

可能是最效屏蔽蜘蛛抓取的办法

时间:2012-03-19 09:42:27
Robots.txt文件对于做SEO的朋友们在熟悉不过了,它其实是搜素引擎和网站之间的一个协议,也是蜘蛛爬取网站的第一站,大家一般利用Robots.txt文件将不利于搜索引擎优化和不想被抓取的页面进行屏蔽,那么该如何设置?这个不是这篇文章主题,今天说说屏蔽蜘蛛另外一种方法。如果大家对于Robots.txt文件如何设置还不了解,欢迎阅读Robots.txt文件解密

大家接触SEO久了都知道Robots.txt并不能完全屏蔽蜘蛛的抓去和收录,这也是我们屏蔽蜘蛛抓取常用方法,但是这个方法并不是最有效的,那么有没有一个最好的办法?大家都知道不同搜素引擎蜘蛛都有自己专属IP段,笔者也是从网上看到一种办法可以通过防火墙和IIS中设置将这个IP段屏蔽,这样就可以完全阻止蜘蛛的爬取,写到这里,笔者也发现一个弊端,这个方法虽然可以完全阻止蜘蛛抓去,但是这样屏蔽是针对整个网站的,例如能不能在服务器和IIS中设置屏蔽百度蜘蛛,然后在针对某一单个页面,单个URL地址呢,如果不能,上面这个办法就没有任何价值了。由于笔者对于技术这块不是很精通,所以不清楚可不可以从技术角度来实现屏蔽单个页面或URL地址,如果可以这样就是双管齐下,可能成为最有效的屏蔽蜘蛛的抓去的办法。

以上都是笔者的猜想,可能不现实,也可能没有意义,写出只为跟大家讨论一下,毕竟人活着要有想法嘛!如有不对的地方,还请您见谅。

相关文章

最简单也最实用的“0”和“1”

“0”和“1”,是大家最为熟悉的两个数字。在逻辑运算中,“0”和“1”有着另外的一重身份,它们对应着"false"与“t...

nofollow,SEO切记no,follow!

今天在正式进入主题前,先谈谈上次我们部门会议提到的nofollow和robots.txt里的disallow的区别。no...

玩转内链,稳定排名

对内链的兴趣来源于之前看过阿里巴巴的一个“国际站”的案例,所有阿里巴巴中文页面都有一个内链导入到英文站点,在Google...

软件开发时的通用代码规范和准则

从事软件开发这么多年,开发过形形的软件和系统,也做过不少的代码优化工作,对于代码规范的重要性也是深有体会,今天我就来总结...

Google是如何判断原创与伪原创

今天无意间看到这篇文章,现在我们做SEO肯定是原创是最好的,同时也有过多次的实战经历,百度对原创文章的网站给予的权重很高...
沪ICP备10034044号-12
400-685-0732
400-685-0732 在线咨询