首页 > 后端开发 > php教程 > 一次性读取出所有数据和limit分批读出数据哪个好啊

一次性读取出所有数据和limit分批读出数据哪个好啊

WBOY
发布: 2016-06-23 14:27:08
原创
1895 人浏览过

在采集时,比如数据库有10万条记录url   是列表页面的网址

1、一次性从数据库读出这10万条url,然后foreach进行采集
2、先limit10条, foreach采集完,再读取数据库limit,不断重复

一般用哪种方法啊?


回复讨论(解决方案)

采集和分析分离么?
如果一边采集一边分析就分批
如果分离就一次,当然看机器承受能力

如果你?存允?,?什?不一次?出呢

10万条一次读取很快的,用limit是怎么想出来的,多麻烦,也不会提高效率。

这个要加limit干嘛,又不是数据库查询。能提高什么效率么。

一般我会建议分批读取。如果一定要对一个大数据集进行统计,那么最好的方法是在服务器端用存储过程进行统计后返回统计结果。虽然说,目前网络速度和稳定性都大幅提高,能在服务器端做的就在服务器端做一般而言总是一个不会错的做法。

不过按照你描述的场景,你需要对服务器端10万个网址进行采集,那么我建议你还不如在当地保存一个该数据库的缓存,可能会更好。

10万条数据,一次性读取,没什么问题,关键是你采集程序效率怎么样。

来源:php.cn
本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板