curl を使用して他の Web サイトをクロールする場合は、正常に取得できますが、Web サイト http://www.fblife.com/ については、16K サイズをキャプチャした後は常にデータが返されなくなりました。 httpステータス 戻りコードが200のままです、アドバイスください
阿弥陀様、寄付者様、基本的なプログラミングが解決できない場合は、ここに投稿するのと同じです。
set_time_limit(0); set_time_limit(0); ;
コードを投稿してください。
私は次のようになります:
<?php $u="http://www.fblife.com/"; $h=curl_init(); curl_setopt($h, CURLOPT_URL, $u); $s=curl_exec($h); curl_close($h); echo $s;?>
重要なのは、この php をブラウザで実行することです。バックグラウンドで実行できないのはなぜですか?
PHP コード
curl_setopt($h, CURLOPT_URL, $u);
この Web サイト http://www.ydtuiguang.com/ についてできることは何もありません
ただ、curl をサポートしないでください
set_time_limit(0);
var_dump(file_get_contents("http://www.ydtuiguang.com/"));
私のものは問題ありません。エラーを報告しましたか?
この Web サイト http://www.ydtuiguang.com/ については何もできません
今日もう一度試して、このコードを fblife.php ファイルとして保存して実行しました。 Windowsのコマンドラインでは、php fblife.phpは正常に出力できますが、Linux環境では、php fblife.phpを実行すると、同じコマンドでその一部しか取得できません。これがLinuxシステムの問題なのか、それとも問題なのかわかる人はいますか。他の問題は?
さらに、Linux でこのコマンド wget "http://www.fblife.com/" を実行すると、
echo $s;
$timeout= 360;//タイムアウトを設定します
curl_setopt($ch, CURLOPT_CONNECTTIMEOUT,$timeout);
この問題ではありません -_-
$timeout=360;// タイムアウトを設定しますcurl_setopt($ch, CURLOPT_CONNECTTIMEOUT) ,$タイムアウト);