raksmart活动促销

分享

写回答

发帖

[其他] 我对ixwebhosting的一些看法

国外虚拟主机 国外虚拟主机 4276 人阅读 | 9 人回复

发表于 2010-8-24 11:15:13 | 显示全部楼层 |阅读模式

我当初之所以购买此款主机是因为看中有独立ip送。虽然买之前网上搜过很多关于ix速度慢的问题,但还是买了。刚开始用的时候速度还是不错的,但到后来速度越来越慢,经过我对网站的优化,发现有两个方法可以提高速度。第一、动态网页伪静态化。这个就不多说了,重点说说第二个方法。刚开始网站的速度是不错的,但为什么会越来越慢呢?我看了自己论坛的用户访问记录后发现了可能的原因——搜索引擎蜘蛛。特别是ip段为124.115.x.x的soso蜘蛛。这个soso蜘蛛经常光顾我的论坛,而且一来就十多个,相当“狂暴”啊!尽是124.115.0.*的ip,后来在网上查下,原来soso蜘蛛的问题果然很多。很多人反应自己的服务器负载过大是因为这个蜘蛛,更何况我们用的虚拟主机呢?索性直接在.htaccess中禁止soso蜘蛛访问,语法
order allow,deny
allow from all
deny from 124.115.
禁止后网站访问响应速度果然好很多。所以当大家发现网站速度变慢时不妨看看是不是因为个别蜘蛛的关系,虽然封了流量会下降,但为了用户体验还是值得的。ix稳定性我们不能改变,能做的就是优化网站了。

我的网站http://bbs.imhakka.com 用ix半年以上了,型号是Linux Expert Plan 2个ip的。

[ 本帖最后由 三叶侠客 于 2010-8-24 11:29 AM 编辑 ]

评分

参与人数 1银币 +3 收起 理由
gypworks526 + 3 xinxi fankui

查看全部评分

回答|共 9 个

gypworks526

发表于 2010-8-24 11:18:02 | 显示全部楼层

三叶侠客

发表于 2010-8-24 11:34:54 | 显示全部楼层

回复 2# 的帖子

leohh

发表于 2010-8-24 11:45:50 | 显示全部楼层

goldstein

发表于 2010-8-24 12:12:40 | 显示全部楼层

我一般是封杀国内所有蜘蛛

itpleb.com

发表于 2010-8-24 14:31:38 | 显示全部楼层

回复 1# 的帖子

真的吗?那我安装个插件测试一下。
RAKSmart

chinaix 该用户已被删除

发表于 2010-8-24 14:38:11 | 显示全部楼层

phpbb和smf等国外开源论坛都有这个功能,关闭网络蜘蛛。
robots也可以吧。

gypworks526

发表于 2010-8-24 14:46:31 | 显示全部楼层

回复 7# 的帖子

是的。
robots可以禁止蜘蛛来爬,甚至可以禁止不允许爬哪个目录。

truk

发表于 2010-8-24 16:52:06 | 显示全部楼层

那用 robots 来禁止搜狗或者搜搜等蜘蛛,应该咋弄呢?

今天就给我爬挂了~~

可怜的IX,数据库并发数只有 30~

gypworks526

发表于 2010-8-24 17:07:52 | 显示全部楼层

回复 9# 的帖子

User-agent: *
Disallow:
  
User-agent: insanedog
Disallow: /

User-agent: sosospider
Disallow: /


PS:这两个蜘蛛名有可能不对,你搜下。。

或者就直接:

User-agent: Googlebot
Disallow:
  
User-agent: baiduspider
Disallow:
  
User-agent: *
Disallow:/
您需要登录后才可以回帖 登录 | 注册

本版积分规则