网站日志出现了很多404代码该怎么弄

我的网站改版了,出现了很多404的 代码 我应该怎么弄啊
2025-04-27 08:55:30
推荐回答(3个)
回答1:

建议有条件的朋友对错误目录和页面进行301永久重定向,而我是采取了404错误页面的方法来降低对新网站带来的影响:

  一、制作404错误提示页
  制作404页面在醒目位置要明确注明“访问的页面已经不存在,您可以返回×××网站首页进行浏览你所需要的内容”,并在这段说明中加入首页地址链接来引导用户,一方面可以降低用户流失,另一方面可以和搜索引擎蜘蛛对话,告诉蜘蛛这是一个错误的的地址。许多朋友将404错误页面跳转到首页,二老猫认为这是存在风险不可取的,会被搜索引擎误认为做弊导致首页降权。

  二、404错误页的测试
  页面制作好以后,命名为404.htm或者其它后辍传入网站根目录(由于个别虚拟空间要求不一样可详细查看空间说明和询问主机商),上传完成后在虚拟主机管理面板上设置自定义404错误页路径。传上去后还没有完事,有更重要的工作,那就是测试404错误页面的有效性,许多网站提供“http状态查询”,输入一个不存在的页面和或目录然后检测,当返回状态码为404说明是有效的,如果不存在的路径返回状态码为200那就需要注意,说明你的设置无效或者你的主机自定义404错误页面有问题,需要联系主机商解决。下图为正确设置了404错误页面返回的状态码。

  三、设置robots禁止抓取错误页面
  对于一个功能完善和友好的新网站,404错误页面是必须的,但是我现在的情况光制作了404还不够。301定向太麻烦,后来想到了robots,这是网站与搜索引擎蜘蛛对话的一个重要文件,那我就在这个文件中告诉蜘蛛禁止抓取不存在的目录和网页。查看空间访问日志发现蜘蛛主要是抓取名为mynist目录下的文件,这个目录是以前旧网站的静态网页存放目录,弄清楚就好办了,在robots文件中添加如下语句Disallow:/mynist/,意思是禁止抓取此目录下的任何文件,再仔细查看日志,将不存在的目录和页面一一添加在robots文件中。百度站长俱乐部lee提到过,robots新添加的语句并不会立即生效需要过程的,正常情况下一周内生效,所以在修改后几天内蜘蛛仍然会抓取已禁止的页面是正常的。

回答2:

一个全新的网站,应该在写网站的时候就做好一切准备

回答3:

做一个404页