ホームページ > バックエンド開発 > PHPチュートリアル > カールクロールタイムアウト

カールクロールタイムアウト

WBOY
リリース: 2016-06-23 13:49:27
オリジナル
1031 人が閲覧しました

curl を使用して他の Web サイトをクロールする場合は、正常に取得できますが、Web サイト http://www.fblife.com/ については、16K サイズをキャプチャした後は常にデータが返されなくなりました。 httpステータス 戻りコードが200のままです、アドバイスください


ディスカッション(解決策)への返信

阿弥陀様、寄付者様、基本的なプログラミングが解決できない場合は、ここに投稿するのと同じです。

set_time_limit(0); set_time_limit(0); ;

コードを投稿してください。

私は次のようになります:

<?php	$u="http://www.fblife.com/";	$h=curl_init();	curl_setopt($h, CURLOPT_URL, $u);	$s=curl_exec($h);	curl_close($h);	echo $s;?>
ログイン後にコピー

戻り値は正常です。ファイル情報は 165.56K です

重要なのは、この php をブラウザで実行することです。バックグラウンドで実行できないのはなぜですか?

コードを投稿してください:

PHP コード

curl_setopt($h, CURLOPT_URL, $u);

echo $s ?>それは正常です、ファイル メッセージ 165...


この Web サイト http://www.ydtuiguang.com/ についてできることは何もありません

ただ、curl をサポートしないでください
set_time_limit(0);
var_dump(file_get_contents("http://www.ydtuiguang.com/"));

私のものは問題ありません。エラーを報告しましたか?

この Web サイト http://www.ydtuiguang.com/ については何もできません


今日もう一度試して、このコードを fblife.php ファイルとして保存して実行しました。 Windowsのコマンドラインでは、php fblife.phpは正常に出力できますが、Linux環境では、php fblife.phpを実行すると、同じコマンドでその一部しか取得できません。これがLinuxシステムの問題なのか、それとも問題なのかわかる人はいますか。他の問題は?
さらに、Linux でこのコマンド wget "http://www.fblife.com/" を実行すると、

$ の一部しか取得できません。 h=curl_init();

curl_setopt($h, CURLOPT_URL, $u);

echo $s;

$timeout= 360;//タイムアウトを設定します
curl_setopt($ch, CURLOPT_CONNECTTIMEOUT,$timeout);


この問題ではありません -_-

$timeout=360;// タイムアウトを設定します

curl_setopt($ch, CURLOPT_CONNECTTIMEOUT) ,$タイムアウト);

関連ラベル:
ソース:php.cn
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
最新の問題
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート