首頁 > 後端開發 > php教程 > PHP执行采集任务,结果死机,但是每次执行一条却很快

PHP执行采集任务,结果死机,但是每次执行一条却很快

WBOY
發布: 2016-06-13 12:54:21
原創
908 人瀏覽過

【求助】PHP执行采集任务,结果死机,但是每次执行一条却很快。
PHP执行采集任务,程序写的步骤是
1.先从数据库中提取出url,
2.php远程获取URL标题title,通过http下载远程网址。
3.下载完之后下载另外一个网站B的数据,http。
4.下载完之后再次下载另外一个站C的数据,http。
5.每条记录总共下载远程四个网站A、B、C、D的数据后更新数据表的对应记录,然后循环下一条记录。


结果的现象是:
如果刷新一次页面一次10条都一直在加载,但是却始终都没有完成一条(三个小时候过去了,一条都没有完成)。
但是如果每次只操作一条,却很快的就完成了。一直难以明白,代码都没有改过。


------解决方案--------------------
是否是php超时了或者内存满了?

是否打开error.log查看下错误日志呢?

写这种采集程序,最重要的是判断程序运行错误的时候怎么处理。
------解决方案--------------------
多数都是代码问题...没代码 没真相
------解决方案--------------------
在每一个都写log入文件,看到哪一步停止了。
------解决方案--------------------
引用:
在每一个都写log入文件,看到哪一步停止了。

正解
------解决方案--------------------
你这个
一条也完不成的一次10条的代码

一条很快完成的一次一条的代码

到底有何不同之处?

------解决方案--------------------
哪里的服务器?先别解析一下DNS。

------解决方案--------------------
我是说siteA,也是本地的?先别采集。直接运行siteA的相应脚本,需要多少时间?
------解决方案--------------------
你没有给出具体的代码,不能给出具体的建议
不过就是给出了代码,也不一定有心情去看和测试
对此类应用提点我哥个人意见:
1、通常页面中都有返回到首页,返回到栏目之类的连接。
  应注意排除,否则极易造成死循环
2、页面采集程序应是单一的
  即运行一次,采集一个页面
3、采集控制程序用于调度页面采集程序
  可用 fsockopen 打开 页面采集程序 后即可返回,目标页url只作为参数传递给页面采集程序
  这样可就模拟了一个多进程系统
4、具体是实现时以数据库为中介,所有从页面中析出的url都入库(当然要排重)
  采集控制程序读取数据库,以决定是否继续采集和每次采集的规模
------解决方案--------------------
引用:
用的是dedecms的下载的类

换个类试试,不要用dedecms集成的。
网上找一下类似功能的function或者CLASS。
------解决方案--------------------
引用:
引用:引用:用的是dedecms的下载的类
换个类试试,不要用dedecms集成的。
网上找一下类似功能的function或者CLASS。

其实的discuz的curl 和 fsocket也不行,会被有的服务器判断出来是非正常访问。只有dede的那个类成功的最多。。其他的也试了,也是很慢!
……


内牛满面....师兄你成仙了啊~~

自己写个采集的curl 封装一下 有多难哪...采集其实麻烦就麻烦在各种正则上的分析校对.
------解决方案--------------------
就是,二次开发没那么难。你到底要怎么样的功能?把URL和要求贴出来,帮你写一个function。
------解决方案--------------------
网络问题是影响采集速度的最主要原因。
你先ping一下,看看响应时间是多少。

别用dedecms的那个类,自己用curl写个,很简单的。
给每个请求设置timeout。别拿自己的pc机跑,找一台配置高的服务器去跑,开多个进程,把你的任务分类,这样可以提高好几倍的效率。
------解决方案--------------------
引用:
有的域名他指向的主机是不存在的

给出这些域名,是不是有头部跳转,或者去掉www看看。
相關標籤:
來源:php.cn
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板