SEO 怎么禁止百度蜘蛛爬某个文件夹?

2024-11-15 05:21:56
推荐回答(5个)
回答1:

首页不需要引导!你建立一个文本文档,以robots命名,把下面这段代码粘贴进去,传到网站根目录,就好了!
User-agent: *
Disallow: /tenz/

回答2:

禁止spider访问特定目录
在这个例子中,该网站有三个目录对搜索引擎的访问做了限制,即robot不会访问这三个目录。需要注意的是对每一个目录必须分开声明,而不能写成 "Disallow: /cgi-bin/ /tmp/"。
如果想禁止爬行某一文件夹,你可以这么写:
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /~joe/

回答3:

需要写robots.txt,写robots.txt可以禁止搜索引擎爬行某个文件或者允许搜索引擎爬行哪个文件,具体的写法,网上有,你可以自己搜索看看!

《★你还有其他问题吗?★如果没有请将本答案★选为满意答案★吧!》

回答4:

Disallow: /tenz/ 把这一行加到robots.txt里面去就可以了啊!

回答5:

写robots.txt文件 去同类网站看看人家的写法