1、实际上很多业务无法放到普通的PHP中处理,如一些较复杂的排序、筛选,通过普通的PHP来实现的话效率还不如MYSQL。
2、cache的命中率也不好保证,特别是对一些使用关键词进行查询的业务,关键词变化太多。
若是遇到恶意刷的话,DB服务器容易直接挂掉,因此我们可以在程序层面上加一层限制器,限制并发数,该限制器具备以下特点:
1、高效(废话么,否则直接刷限制器就刷爆了)。现在是使用memcache进行原子操作计数,可以扩展成使用其他方法。
2、精确到action层。可以单独限制单个页面。
3、方便。见仁见智吧
4、成本低廉。包括研发成本与硬件成本。
根据压测,原先只能100并发的搜索功能,限制100后,压测800结果正常。
代码如下:
check($limitName, $limit)) { ajaxOutput(0, $this->lang->line('multi_search_limit')); } /*----复杂变态的业务逻辑-----*/ $xxxModel->search($params); } //end func ?>
扩展话题:
1、若是该业务被刷,可能导致正常用户无法查看内容。 -- 这个问题要解决只能是从系统层面去操作,可见这边:http://johnsteven.blog.51cto.com/2523007/818209
2、限制数最好能与缓存命中率相结合,一定范围内自动变更限制数,提高限制的精准度。 -- 这个后期可以进行研究,与缓存类相结合
3、根据服务器负载进行动态控制。 -- 涉及到底层及服务器权限,研究成本较高,有兴趣的话可以研究。
注:
本文只说明思路,具体代码由于一些原因暂时不开放