【WordPress与网站高手进!】百度收录 网站robots文件错误怎么解决?

2025-02-27 04:33:26
推荐回答(2个)
回答1:

介于你目前的情况应该是屏蔽了蜘蛛抓取的指令文件用法
例1. 禁止所有搜索引擎访问网站的任何部分
User-agent: *
Disallow: /
实例分析:淘宝网的 Robots.txt文件
User-agent: Baiduspider
Disallow: /
User-agent: baiduspider
Disallow: /

你有可能写成了disallow 全站屏蔽了

回答2:

洛阳亲友如相问,一片冰心在玉壶。