1:检查robots文件中是否有屏蔽对应的搜索引擎蜘蛛。
如果robots中写入了禁止搜索引擎抓取,那么蜘蛛是不会抓取的。
2:检查网站空间或服务器的地理位置。
如果网站服务器空间在国外或相对偏远的国外,有可能爬虫有无法访问的情况。
3:咨询空间服务商看是否对你所需要的蜘蛛做了屏蔽策略。
国外的一些空间有服务商针对搜索引擎做了一些策略,不排除屏蔽百度蜘蛛访问的可能。
4:域名曾绑定别的服务器,但此时更换了空间和绑定,原有ip已不存在
进入百度站长资源平台进行抓取测试,如果ip错误则点击手动刷新,清除蜘蛛ip缓存记录。
5:检查远程服务器是否宕机,但是开启了CDN永久在线功能
这种情况偶尔是有的,由于cdn缓存了网站,因此浏览器能打开,但是蜘蛛等其他方式无法打开。
这个问题有以下几种原因导致:
robots文件限制了搜索引擎的访问。wordpress网站可以通过后台设置,建议检查以下
把搜索引擎加入黑名单中。
建议通过百度站长管理工具抓取网站错误看一下。
通过浏览器能打开,蜘蛛无法爬行,可能是因为你的robots禁止了蜘蛛爬行。你如果没有设置,你还需要发个你的网站的地址,这样我们才能帮你分析。
查一查自己的网站地图,看一下我这些链接之间是不是有断链的情况?如果你的链接之前有断链,这情况发生,那么,搜索引擎在你网站进行访问的时候就会失去目标,我们要不断地更新网站上所以群主的的提交新网页的链接,从而增强网站快速收录的能力,明晚我们要让网站的结构,尽量的境界,从首页到达任何内容都不要错过三次,却把网站做得非常紧,访问速度非常的快速,你的网站在搜索引擎才会有好的表现