PHP in der Praxis: Effiziente Webcrawler-Programmentwicklung

WBOY
Freigeben: 2023-06-13 20:20:02
Original
1412 Leute haben es durchsucht

Ein Webcrawler-Programm bezieht sich auf ein Programm, das automatisch Informationen im Internet abruft und analysiert. Es ist auch eines der wichtigen Werkzeuge für die Datenerfassung und Informationsverarbeitung. Im Internetzeitalter sind Daten ein äußerst wertvolles Gut, und die Möglichkeit, schnell und genau Informationen über Zielwebsites zu erhalten, ist sowohl für Unternehmen als auch für Privatpersonen sehr wichtig. Durch den Einsatz von Webcrawlern kann dieses Ziel effizienter erreicht werden.

Als effiziente Programmiersprache ist PHP aufgrund seiner hervorragenden Netzwerkprogrammierfunktionen und umfangreichen Open-Source-Bibliotheken eine sehr geeignete Sprache für die Entwicklung von Webcrawler-Programmen. In diesem Artikel wird detailliert beschrieben, wie Sie mit PHP ein effizientes Webcrawler-Programm entwickeln.

1. Grundprinzipien von Crawler-Programmen

Das grundlegende Arbeitsprinzip von Webcrawler-Programmen besteht darin, den Quellcode von Webseiten über Netzwerkprotokolle abzurufen, die Informationen dann nach bestimmten Regeln zu analysieren und schließlich die erforderlichen Daten in einer Datenbank zu speichern oder andere Dateien. Der allgemeine Vorgang ist wie folgt:

1. Senden Sie eine Anfrage an die Ziel-URL und rufen Sie den Quellcode der Webseite ab
2. Analysieren Sie die Informationen im Quellcode, z. B. Links, Text, Bilder usw.
3 . Speichern Sie die erforderlichen Informationen in einer Datenbank oder anderen Dateien
4 . Wiederholen Sie die obigen Schritte, bis die Crawling-Aufgabe abgeschlossen ist

Der Kernteil des Crawler-Programms ist der Parser, dessen Aufgabe darin besteht, den erhaltenen Quellcode der Webseite zu analysieren und zu extrahieren die erforderlichen Informationen. Das Parsen des Webseiten-Quellcodes wird normalerweise mithilfe regulärer Ausdrücke oder Parsing-Funktionen implementiert, die vom Framework bereitgestellt werden. Reguläre Ausdrücke sind flexibler zu verwenden, aber komplex und fehleranfällig. Die Verwendung der vom Framework bereitgestellten Parsing-Funktionen ist einfach zu verwenden, weist jedoch auch Einschränkungen auf.

2. Praktische Entwicklung eines Webcrawler-Programms

In diesem Artikel wird die Entwicklung eines einfachen Webcrawler-Programms als Beispiel verwendet, um dessen Entwicklungsprozess vorzustellen.

  1. Ermitteln Sie die Anforderungen

Bevor Sie ein Webcrawler-Programm entwickeln, müssen Sie zunächst die zu crawlende Zielwebsite und die zu crawlenden Informationen klären. In diesem Artikel wird das Crawlen beliebter Empfehlungen von Sina News als Beispiel verwendet. Die Anforderung lautet: Crawlen Sie die empfohlenen Titel und Links zu beliebten Nachrichten auf der Sina News-Homepage und speichern Sie sie in der Datenbank.

  1. Den Quellcode der Webseite abrufen

In PHP können Sie die Curl-Funktionsbibliothek verwenden, um den Quellcode der Webseite abzurufen. Der folgende Code zeigt, wie Sie mit der Curl-Funktionsbibliothek den Webseiten-Quellcode der Sina News-Homepage abrufen.

<?php

$url = 'http://news.sina.com.cn/';
$ch = curl_init();
curl_setopt($ch, CURLOPT_URL, $url);
curl_setopt($ch, CURLOPT_RETURNTRANSFER, true);
$html = curl_exec($ch);
curl_close($ch);

echo $html;

?>
Nach dem Login kopieren

Der obige Code verwendet die Curl-Funktionsbibliothek, um eine Anfrage an die Sina News-Homepage zu senden und den Quellcode der Webseite abzurufen. Die Funktion „curl_setopt()“ legt nach dem Abrufen der Seite das zurückgegebene Ergebnis als Zeichenfolge fest und legt automatisch den Referrer der angeforderten Webseite fest.

  1. Informationen analysieren

Nachdem Sie den Quellcode der Webseite erhalten haben, müssen Sie die darin enthaltenen Informationen analysieren, um die erforderlichen Daten zu extrahieren. In PHP kann dies mithilfe regulärer Ausdrücke oder Parsing-Funktionen erreicht werden, die vom Framework bereitgestellt werden. Der folgende Code zeigt, wie man Schlagzeilen und Links mit der in PHP integrierten DOMDocument-Klasse extrahiert.

<?php

$url = 'http://news.sina.com.cn/';
$ch = curl_init();
curl_setopt($ch, CURLOPT_URL, $url);
curl_setopt($ch, CURLOPT_RETURNTRANSFER, true);
$html = curl_exec($ch);
curl_close($ch);

// 使用 DOMDocument 类解析 HTML
$doc = new DOMDocument();
$doc->loadHTML($html);
$xpath = new DOMXPath($doc);
$news_list = $xpath->query('//div[@class="blk12"]/h2/a');

foreach ($news_list as $news) {
    $title = trim($news->nodeValue);
    $link = $news->getAttribute('href');
    echo $title . ' ' . $link . PHP_EOL;
}

?>
Nach dem Login kopieren

Im obigen Code ist //div[@class="blk12"]/h2/a ein XPath-Ausdruck, der verwendet wird, um ein Element unter allen h2-Elementen unter dem div-Element mit dem Klassenattribut „blk12“ auszuwählen. Das Programm verwendet eine foreach-Schleife, um alle erhaltenen a-Elemente zu durchlaufen, und betreibt die Methoden nodeValue und getAttribute() von DOMNode, um deren Text- und href-Attributwerte abzurufen.

  1. Speichern von Daten

Nach Erhalt der gecrawlten Informationen müssen diese in der Datenbank gespeichert werden. In diesem Artikel wird die MySQL-Datenbank als Beispiel verwendet. Der folgende Code zeigt, wie man gescrapte Nachrichtentitel und Links in einer MySQL-Datenbank speichert.

<?php

// 连接数据库
$host = 'localhost';
$user = 'root';
$password = 'root';
$database = 'test';
$charset = 'utf8mb4';
$dsn = "mysql:host={$host};dbname={$database};charset={$charset}";
$pdo = new PDO($dsn, $user, $password);

// 获取新浪新闻主页热门推荐新闻标题和链接
$url = 'http://news.sina.com.cn/';
$ch = curl_init();
curl_setopt($ch, CURLOPT_URL, $url);
curl_setopt($ch, CURLOPT_RETURNTRANSFER, true);
$html = curl_exec($ch);
curl_close($ch);

// 使用 DOMDocument 类解析 HTML
$doc = new DOMDocument();
$doc->loadHTML($html);
$xpath = new DOMXPath($doc);
$news_list = $xpath->query('//div[@class="blk12"]/h2/a');

// 插入数据库
$sql = "INSERT INTO news(title, link) VALUES(:title, :link)";
$stmt = $pdo->prepare($sql);

foreach ($news_list as $news) {
    $title = trim($news->nodeValue);
    $link = $news->getAttribute('href');
    $stmt->bindParam(':title', $title);
    $stmt->bindParam(':link', $link);
    $stmt->execute();
}

?>
Nach dem Login kopieren
Nach dem Login kopieren

Im obigen Code wird PDO verwendet, um eine Verbindung zur MySQL-Datenbank herzustellen, und eine Datentabelle namens „news“ wird definiert, um Nachrichtentitel und Links zu speichern. Das Programm verwendet die PDO-Funktionen „prepare()“ und „bindParam()“, um SQL-Injection-Angriffe und Datentypfehler zu vermeiden.

  1. Vollständiger Code

Durch die Kombination der oben genannten Codes erhalten Sie ein einfaches Webcrawler-Programm. Der vollständige Code lautet wie folgt:

<?php

// 连接数据库
$host = 'localhost';
$user = 'root';
$password = 'root';
$database = 'test';
$charset = 'utf8mb4';
$dsn = "mysql:host={$host};dbname={$database};charset={$charset}";
$pdo = new PDO($dsn, $user, $password);

// 获取新浪新闻主页热门推荐新闻标题和链接
$url = 'http://news.sina.com.cn/';
$ch = curl_init();
curl_setopt($ch, CURLOPT_URL, $url);
curl_setopt($ch, CURLOPT_RETURNTRANSFER, true);
$html = curl_exec($ch);
curl_close($ch);

// 使用 DOMDocument 类解析 HTML
$doc = new DOMDocument();
$doc->loadHTML($html);
$xpath = new DOMXPath($doc);
$news_list = $xpath->query('//div[@class="blk12"]/h2/a');

// 插入数据库
$sql = "INSERT INTO news(title, link) VALUES(:title, :link)";
$stmt = $pdo->prepare($sql);

foreach ($news_list as $news) {
    $title = trim($news->nodeValue);
    $link = $news->getAttribute('href');
    $stmt->bindParam(':title', $title);
    $stmt->bindParam(':link', $link);
    $stmt->execute();
}

?>
Nach dem Login kopieren
Nach dem Login kopieren

3. Zusammenfassung

Die Entwicklung von Webcrawler-Programmen erfordert die Verwendung mehrerer Technologien, einschließlich Netzwerkprogrammierung, Informationsanalyse, Datenspeicherung usw. Als effiziente Programmiersprache bietet PHP herausragende Vorteile bei der Netzwerkprogrammierung und ist aufgrund seiner umfangreichen Open-Source-Klassenbibliotheken eine sehr geeignete Sprache für die Entwicklung von Webcrawler-Programmen.

Bei der tatsächlichen Entwicklung müssen Webcrawler-Programme auf Themen wie Rechtskonformität, Datenschutz und Anti-Crawler-Mechanismen achten. Entwickler sollten relevante Entwicklungen unter der Voraussetzung der Einhaltung gesetzlicher Vorschriften durchführen. Gleichzeitig können angemessene Einstellungen wie Programmanforderungsgeschwindigkeit, zufällige HTTP-Anforderungsheader und die Verwendung von Proxy-IP die Blockierung durch den Anti-Crawler-Mechanismus wirksam verhindern.

Um ein Webcrawler-Programm zu entwickeln, müssen Sie dessen tatsächliche Bedürfnisse und Machbarkeit vollständig berücksichtigen und geeignete Technologien und Strategien auswählen. Der in diesem Artikel bereitgestellte Beispielcode ist nur eine einfache Implementierung. Wenn Sie ein umfassenderes Crawler-Programm benötigen, müssen Sie sich weiter mit den entsprechenden Kenntnissen befassen.

Das obige ist der detaillierte Inhalt vonPHP in der Praxis: Effiziente Webcrawler-Programmentwicklung. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:php.cn
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage
Über uns Haftungsausschluss Sitemap
Chinesische PHP-Website:Online-PHP-Schulung für das Gemeinwohl,Helfen Sie PHP-Lernenden, sich schnell weiterzuentwickeln!