谷歌:不能爬你的Robots.txt然后我们停止爬你的网站

谷歌账号批发 admin 2年前 (2022-11-02) 70次浏览

谷歌:不能爬你的Robots.txt然后我们停止爬你的网站| (11) by Barry Schwartz |在谷歌搜索引擎优化Prev故事下一个故事推特分享 Prev故事下一个故事

你知道吗,如果谷歌不能爬你的Robots.txt文件,它将停止爬你的整个网站?这并不意味着你需要一个robots.txt文件,你可以不需要。但如果你有一个,谷歌知道你有,它不能访问它,那么谷歌将停止爬你的网站。

谷歌的Eric Kuan在谷歌网站管理员帮助线程中说了这句话。他写道:

如果谷歌在抓取robots.txt文件时遇到困难,它将停止抓取站点的其他部分,以防止抓取被robots.txt文件阻止的页面。如果这种情况不是经常发生,那么它可能是一个一次性的问题,你不需要担心。如果它经常发生,或者如果您担心,您应该考虑联系您的主机或服务提供商,看看他们在您看到爬行错误的日期是否遇到了任何问题。

这也并不意味着你不能阻止你的robots.txt出现在搜索结果中,你可以。但是要小心。简而言之,如果robots.txt文件不返回200或404响应代码,那么就有问题了。

论坛讨论在谷歌站长帮助。

喜欢 (0)