首頁 > 後端開發 > php教程 > 用curl抓取网页的时候,为什么小弟我的每次都只能抓取18个左右就自动停止了

用curl抓取网页的时候,为什么小弟我的每次都只能抓取18个左右就自动停止了

WBOY
發布: 2016-06-13 10:48:08
原創
860 人瀏覽過

用curl抓取网页的时候,为什么我的每次都只能抓取18个左右就自动停止了?
用curl抓取网页的时候,为什么我的每次都只能抓取18个左右就自动停止了?
代码如下

PHP code
<!--Code highlighting produced by Actipro CodeHighlighter (freeware)http://www.CodeHighlighter.com/--><?phpfor ($i=2;$i<30;$i++)   {$ch = curl_init("http://www.readnovel.com/novel/169509/$i.html");$fp = fopen("novel-$i.txt", "w");curl_setopt($ch, CURLOPT_FILE, $fp);curl_setopt($ch, CURLOPT_HEADER, 0);curl_setopt($ch, CURLOPT_TIMEOUT, "100");curl_exec($ch);curl_close($ch);fclose($fp);echo "第".$i."页成功保存</br>";   }echo "抓取完成";?> 
登入後複製



------解决方案--------------------
如果不是每个网站都这样,就可能是这个网站有限制
相關標籤:
來源:php.cn
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板