如何使用robots禁止各大搜索引擎爬虫爬取网站

1、搜索引擎在爬取网站前会做什么?

一般来说搜索引擎爬取网站时都会,先读取下robots.txt文件,并依照里面所设定的规则去爬取网站(当然是指没用登录限制的页面)

2、robots.txt文件的内容和结构是怎样的?

1).robots.txt文件必须是放在文件根目录上:
例如:

├─admin

│ └─templates

│ header.tpl.php

│ task_add.tpl.php

│ └─robots.txt

2 ) .首先常用的命令为

User-agent : 可以具体制定User-agent适用,即搜索引擎的名字,如果为 * 的话则为通配

Disallow : 可以设定档案或文件夹,不允许被爬虫爬取,且为 / 时禁止爬取整站 ,也可以指定文件路径,不可爬取

Crawl-delay: 延时爬取,防止爬虫短时间内爬取网站过快导致网站崩溃,则可以设置该延时

Allow : 允许爬取指定页面, 为 / 时爬取整站

3) 搜索引擎别称

Googlebot 谷歌

Baiduspider 百度

等等

3、搜索引擎的好处和坏处是什么?

不好的地方会增加网站的访问负荷;有时,还会涉及到用户的隐私;

好的地方也是增加了访问流量;

4、一般彻底防止爬虫用什么方法?

如果需要防止的话,就需要监测网站,把一些不良网络爬虫的给堵止掉,一般是封IP。

robots.txt只能防止有品的爬虫来爬

5、如何使用robots禁止各大搜索引擎爬虫爬取网站

1.原来一般来说搜索引擎爬取网站时都会,先读取下robots.txt文件,并依照里面所设定的规则去爬取网站(当然是指没用登录限制的页面)

2.下面我们就来说一说如何设置robots.txt文件

1).robots.txt文件必须是放在文件根目录上:
例如:

├─admin

│ └─templates

│ header.tpl.php

│ task_add.tpl.php

│ └─robots.txt

2 ) .首先常用的命令为

User-agent : 可以具体制定User-agent适用,即搜索引擎的名字,如果为 * 的话则为通配

Disallow : 可以设定档案或文件夹,不允许被爬虫爬取,且为 / 时禁止爬取整站 ,也可以指定文件路径,不可爬取

Crawl-delay: 延时爬取,防止爬虫短时间内爬取网站过快导致网站崩溃,则可以设置该延时

Allow : 允许爬取指定页面, 为 / 时爬取整站

3) 搜索引擎别称

Googlebot 谷歌

Baiduspider 百度

等等

类似我们测试环境就设置了

User-agent : / 所有搜索引擎

Disallow : / 禁止整站

总结

User-agent: *
Disallow: /

就可以了..

上一篇 CorePress Pro 主题1.3.2 更新日志
下一篇 MySQL 数据库文件恢复方案
目录
applek

applek管理员

个人说明在个人中心里面设置

本月创作热力图

最新评论
38658469
38658469
3月31日
guzhang
评论于关于本站
mchsj
mchsj
3月20日
希望增加文章目录
评论于留言建议
吴彦祖
吴彦祖
3月14日
很期待优秀的主题作品qiang
xxx
xxx
3月14日
密码是多少
西风
西风
3月7日
暂时不需要也能跑