raksmart活动促销

分享

写回答

发帖

[提问] ICP7服务器上的网站,sitemap.xml都正常吗?

国外虚拟主机 国外虚拟主机 1889 人阅读 | 4 人回复

发表于 2010-6-15 10:50:30 | 显示全部楼层 |阅读模式

我在IXWebHosting上的有两个个网站,最近数据库比以前快多了,但是网站google收录却变少了,两个网站的都出现了同样的错误:

“网络无法访问: robots.txt 无法访问
在您网站的根目录下,我们发现了一个不能下载的 robots.txt 文件,因此我们不能抓取您的 Sitemap。 请确保该文件可访问或将其彻底删除。”


事实上最近我根本没动过网站robots.txt文件,怎么突然都无法访问了呢?
http://www.hcgarlic.com/robots.txt
http://www.hcgarlic.com/sitemap.xml

http://www.chinesegarlic.org/robots.txt
http://www.chinesegarlic.org/sitemap.xml

都可以通过浏览器正常访问啊,就是在google那里出错。
我看网上有说可能是主机的问题,换了主机就好了,请问其他坛友有没有出现同样问题的?
高手知不知道这个问题应该怎么解决?最好不换主机!

万分感谢!

[ 本帖最后由 angpan 于 2010-6-15 10:51 AM 编辑 ]

回答|共 4 个

gypworks526

发表于 2010-6-15 11:00:44 | 显示全部楼层

没有遇到过这样的问题。。
不太清楚。

你的那个错误提示是在哪提示出来的?

angpan

发表于 2010-6-15 15:03:47 | 显示全部楼层

联系IX的客服,他说是google的问题,搜狗和雅虎蜘蛛访问都正常,连接也正常,

angpan

发表于 2010-6-15 15:05:16 | 显示全部楼层

回复 2# 的帖子

“网络无法访问: robots.txt 无法访问
在您网站的根目录下,我们发现了一个不能下载的 robots.txt 文件,因此我们不能抓取您的 Sitemap。 请确保该文件可访问或将其彻底删除。”
这个提示是在google管理员工具那里看到的

gypworks526

发表于 2010-6-15 17:21:02 | 显示全部楼层

你查看你的robots.txt这个文件,看看是不是阻止了google的蜘蛛。。
或者直接把这个文件删除了看。。
您需要登录后才可以回帖 登录 | 注册

本版积分规则