Heim > Java > javaLernprogramm > Hauptteil

Effiziente Java-Crawler-Praxis: Weitergabe von Webdaten-Crawling-Techniken

WBOY
Freigeben: 2024-01-09 12:29:53
Original
1240 Leute haben es durchsucht

Effiziente Java-Crawler-Praxis: Weitergabe von Webdaten-Crawling-Techniken

Java-Crawler-Praxis: So crawlen Sie Webseitendaten effizient

Einführung:

Mit der rasanten Entwicklung des Internets werden große Mengen wertvoller Daten auf verschiedenen Webseiten gespeichert. Um diese Daten zu erhalten, ist es oft notwendig, manuell auf jede Webseite zuzugreifen und die Informationen einzeln zu extrahieren, was zweifellos eine mühsame und zeitaufwändige Aufgabe ist. Um dieses Problem zu lösen, wurden verschiedene Crawler-Tools entwickelt, von denen der Java-Crawler eines der am häufigsten verwendeten ist. Dieser Artikel führt den Leser dazu, zu verstehen, wie man mit Java einen effizienten Webcrawler schreibt, und demonstriert die Praxis anhand spezifischer Codebeispiele.

1. Grundprinzipien von Crawlern

Das Grundprinzip von Webcrawlern besteht darin, HTTP-Anfragen durch Simulation eines Browsers zu senden, dann die Webseite zu analysieren und die erforderlichen Daten zu extrahieren. Der Arbeitsprozess ist grob in die folgenden Schritte unterteilt:

  1. HTTP-Anfrage senden: Verwenden Sie die Netzwerkprogrammierungsbibliothek von Java, wie HttpURLConnection, HttpClient usw., um eine HTTP-Anfrage zu erstellen und diese an die Zielwebseite zu senden.
  2. Analyse von Webseiten: Verwenden Sie entsprechend der Struktur der Webseite geeignete Analysebibliotheken wie Jsoup, XPath usw., um Webseiten im HTML-, XML- oder JSON-Format zu analysieren und die erforderlichen Daten zu extrahieren.
  3. Datenverarbeitung und -speicherung: Verarbeiten Sie die extrahierten Daten, z. B. durch Bereinigung, Filterung usw., und speichern Sie sie dann zur späteren Verwendung in einer Datenbank, Datei oder im Speicher.

2. Erstellung einer Crawler-Entwicklungsumgebung

Um mit der Entwicklung von Java-Crawlern zu beginnen, müssen Sie eine entsprechende Umgebung einrichten. Stellen Sie zunächst sicher, dass das Java Development Kit (JDK) und die Java Integrated Development Environment (IDE) wie Eclipse, IntelliJ IDEA usw. installiert sind. Führen Sie dann die erforderlichen Netzwerkprogrammierbibliotheken wie HttpClient, Jsoup usw. in das Projekt ein.

3. Praktische Übung: Erfassen von Douban-Filmranking-Daten

Um den Crawler-Entwicklungsprozess zu üben, haben wir uns entschieden, die Daten des Douban-Filmrankings als Beispiel zu erfassen. Unser Ziel ist es, den Namen, die Bewertung und die Anzahl der Rezensenten des Films zu ermitteln.

  1. HTTP-Anfrage senden

Zuerst müssen wir die Netzwerkprogrammierungsbibliothek von Java verwenden, um eine HTTP-Anfrage zu senden, um den Inhalt der Webseite abzurufen. Das Folgende ist ein Beispielcode zum Senden einer GET-Anfrage mithilfe der HttpClient-Bibliothek:

import org.apache.http.HttpEntity;
import org.apache.http.client.methods.CloseableHttpResponse;
import org.apache.http.client.methods.HttpGet;
import org.apache.http.impl.client.CloseableHttpClient;
import org.apache.http.impl.client.HttpClients;
import org.apache.http.util.EntityUtils;

public class HttpClientExample {
    public static void main(String[] args) {
        CloseableHttpClient httpClient = HttpClients.createDefault();
        HttpGet httpGet = new HttpGet("https://movie.douban.com/top250");
        
        try (CloseableHttpResponse response = httpClient.execute(httpGet)){
            HttpEntity entity = response.getEntity();
            String result = EntityUtils.toString(entity);
            System.out.println(result);
        } catch (Exception e) {
            e.printStackTrace();
        }
    }
}
Nach dem Login kopieren
  1. Webseitenanalyse

Durch das Senden einer HTTP-Anfrage haben wir den Webinhalt der Douban-Filmrankings erhalten. Als nächstes müssen wir eine Parsing-Bibliothek verwenden, um die erforderlichen Daten zu extrahieren. Das Folgende ist ein Beispielcode für die Verwendung der Jsoup-Bibliothek zum Parsen von HTML-Seiten:

import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;

public class JsoupExample {
    public static void main(String[] args) {
        try {
            Document document = Jsoup.connect("https://movie.douban.com/top250").get();
            Elements elements = document.select("ol.grid_view li");
            
            for (Element element : elements) {
                String title = element.select(".title").text();
                String rating = element.select(".rating_num").text();
                String votes = element.select(".star span:nth-child(4)").text();
                
                System.out.println("电影名称:" + title);
                System.out.println("评分:" + rating);
                System.out.println("评价人数:" + votes);
                System.out.println("-------------------------");
            }
        } catch (Exception e) {
            e.printStackTrace();
        }
    }
}
Nach dem Login kopieren
  1. Datenverarbeitung und -speicherung

In tatsächlichen Anwendungen müssen wir die extrahierten Daten möglicherweise weiter verarbeiten und speichern. Beispielsweise können wir Daten zur späteren Verwendung in einer Datenbank speichern. Das Folgende ist ein Beispielcode für die Verwendung einer MySQL-Datenbank zum Speichern von Daten:

import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.PreparedStatement;
import java.sql.SQLException;

public class DataProcessingExample {
    public static void main(String[] args) {
        String jdbcUrl = "jdbc:mysql://localhost:3306/spider";
        String username = "root";
        String password = "password";
        
        try (Connection conn = DriverManager.getConnection(jdbcUrl, username, password)) {
            String sql = "INSERT INTO movie (title, rating, votes) VALUES (?, ?, ?)";
            PreparedStatement statement = conn.prepareStatement(sql);
            
            // 假设从网页中获取到了以下数据
            String title = "肖申克的救赎";
            String rating = "9.7";
            String votes = "2404447";
            
            statement.setString(1, title);
            statement.setString(2, rating);
            statement.setString(3, votes);
            
            int rowsAffected = statement.executeUpdate();
            System.out.println("插入了 " + rowsAffected + " 条数据");
        } catch (SQLException e) {
            e.printStackTrace();
        }
    }
}
Nach dem Login kopieren

Zusammenfassung

Dieser Artikel stellt die Grundprinzipien von Java-Crawlern vor und zeigt anhand spezifischer Codebeispiele, wie Java zum Schreiben effizienter Webcrawler verwendet wird. Durch das Erlernen dieser Grundkenntnisse können Leser komplexere und flexiblere Crawler-Programme entsprechend den tatsächlichen Anforderungen entwickeln. In praktischen Anwendungen müssen Sie außerdem auf die rechtmäßige Verwendung von Crawlern achten und die Datenschutzbestimmungen und Nutzungsbedingungen der Website respektieren, um Rechtsstreitigkeiten zu vermeiden. Ich hoffe, dass dieser Artikel den Lesern als Leitfaden zum Erlernen und Anwenden von Java-Crawlern dienen wird.

Das obige ist der detaillierte Inhalt vonEffiziente Java-Crawler-Praxis: Weitergabe von Webdaten-Crawling-Techniken. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:php.cn
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage
Über uns Haftungsausschluss Sitemap
Chinesische PHP-Website:Online-PHP-Schulung für das Gemeinwohl,Helfen Sie PHP-Lernenden, sich schnell weiterzuentwickeln!