ホームページ > バックエンド開発 > PHPチュートリアル > なぜcurlやfile_get_contentsでURLを収集する際にk数が高すぎて取得できないのでしょうか?

なぜcurlやfile_get_contentsでURLを収集する際にk数が高すぎて取得できないのでしょうか?

WBOY
リリース: 2016-06-23 14:20:48
オリジナル
931 人が閲覧しました

http://bbs.csdn.net/topics/390572750 から入手方法を以前に学びましたが、いくつかのリンクは次のとおりです:
http://www.autohome.com.cn/77/options.html
http :/ /www.autohome.com.cn/59/options.html
は通常どおり入手できます
が、次のリンクが必要です:
http://www.autohome.com.cn/146/options.html
http:// www.autohome .com.cn/317/options.html
その後、検索が空になりますが、現時点では取得できるページ数が K ページよりも少ないと個人的には考えています。を取得できません
専門家の方、助けてください。何が問題ですか?弟はlnmpを使っています


ディスカッションに返信(解決策)

htmlは取得できていることを確認するが、指定部分が正規表現で取得できない(urlのhtmlバイトが大きい場合)

は全て30~の間です35k、取得することは不可能です 問題は正規表現に何か問題があることです

正規表現を見て、場合によっては一致できないかどうかを確認してください。あなた自身が HTML を取得したと言っているので、問題を見つけるのは簡単です

ソース:php.cn
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート