首頁 > 後端開發 > php教程 > 用curl抓取网页的时候,为什么小弟我的每次都只能抓取18个左右就自动停止了

用curl抓取网页的时候,为什么小弟我的每次都只能抓取18个左右就自动停止了

WBOY
發布: 2016-06-13 13:12:11
原創
997 人瀏覽過

用curl抓取网页的时候,为什么我的每次都只能抓取18个左右就自动停止了?
用curl抓取网页的时候,为什么我的每次都只能抓取18个左右就自动停止了?
代码如下

PHP code
<!--

Code highlighting produced by Actipro CodeHighlighter (freeware)
http://www.CodeHighlighter.com/

-->
<?php for($i=2;$i<30;$i++)
   {
$ch = curl_init("http://www.readnovel.com/novel/169509/$i.html");
$fp = fopen("novel-$i.txt", "w");

curl_setopt($ch, CURLOPT_FILE, $fp);
curl_setopt($ch, CURLOPT_HEADER, 0);
curl_setopt($ch, CURLOPT_TIMEOUT, "100");

curl_exec($ch);
curl_close($ch);
fclose($fp);
echo "第".$i."页成功保存</br>";
   }
echo "抓取完成";
?> 

登入後複製



------解决方案--------------------
如果不是每个网站都这样,就可能是这个网站有限制
相關標籤:
來源:php.cn
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板