在进行网页数据抓取时,开发者通常会首先考虑使用beautifulsoup或selenium等工具。然而,面对现代网站日益复杂的动态加载机制,这些工具可能会遇到瓶颈。
当发现BeautifulSoup无法找到目标元素,或者Selenium虽然能加载页面但效率低下时,就需要考虑更深层次的解决方案。
解决动态加载内容爬取问题的关键在于理解其背后的数据加载机制。大多数动态内容都是通过前端JavaScript向后端API发送请求并获取数据。通过浏览器开发者工具,我们可以“窥探”这些幕后的API调用。
打开目标网站(例如Dermnet的搜索结果页),按下F12键或右键点击页面选择“检查”打开开发者工具。导航到“网络 (Network)”标签页。
在“网络”标签页中,重新加载页面或执行触发图片加载的操作(如滚动、点击搜索)。你会看到一系列的网络请求。我们需要仔细观察这些请求,寻找与图片数据相关的API调用。
立即学习“前端免费学习笔记(深入)”;
在“网络”标签页中,尝试点击网站上的“下一页”按钮或滚动加载更多内容。观察API请求的URL参数如何变化。通常,会有一个参数(如start、page或offset)用于控制分页。例如,如果第一页从start=1开始,每页显示16张图片,那么第二页可能从start=17开始。
一旦我们定位了API请求并理解了其参数和响应结构,就可以使用HTTP客户端库(如Python的requests)直接调用API来获取数据。
根据开发者工具中观察到的信息,构建API请求的URL和参数字典。
import requests import json import re # For parsing JSONP def fetch_dermnet_images_from_api(query_term, start_index=1, num_results=16): """ 从Dermnet网站的Google CSE API抓取图片信息。 :param query_term: 搜索关键词。 :param start_index: 结果的起始索引(用于分页)。 :param num_results: 每页返回结果的数量。 :return: 包含图片信息的列表。 """ base_url = "https://cse.google.com/cse/element/v1" # 根据网络请求观察到的参数构建 params = { "rsz": "large", "num": num_results, "hl": "en", "source": "gcsc", "gss": ".com", "cselibv": "8e77c7877b8339e2", # 注意: 此参数可能随时间变化,需定期检查 "searchtype": "image", "cx": "015036873904746004277:nz7deehiccq", "q": query_term, "safe": "off", "start": start_index, # 分页参数 "exp": "csqr,cc,bf", "callback": "google.search.cse.api10440" # 保持此参数以获取JSONP格式 } # 模拟浏览器User-Agent,避免被识别为爬虫 headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36" } images_data = [] try: response = requests.get(base_url, params=params, headers=headers, timeout=10) response.raise_for_status() # 如果请求失败(HTTP状态码非200),则抛出异常 # 解析JSONP响应 # 响应格式通常为 google.search.cse.apiXXXXX({...JSON_CONTENT...}) jsonp_content = response.text match = re.search(r'^\w+\((.*)\)$', jsonp_content, re.DOTALL) if match: json_str = match.group(1) data = json.loads(json_str) if "results" in data: for item in data["results"]: if "image" in item: images_data.append({ "title": item.get("title", "No Title"), "url": item["image"].get("src", ""), "thumbnail_url": item["image"].get("thumbnailSrc", ""), "width": item["image"].get("width", 0), "height": item["image"].get("height", 0) }) else: print(f"Error: Could not parse JSONP response for query '{query_term}'.") print(f"Raw response start: {jsonp_content[:200]}...") except requests.exceptions.RequestException as e: print(f"Network or HTTP error for query '{query_term}': {e}") except json.JSONDecodeError as e: print(f"JSON decoding error for query '{query_term}': {e}") except Exception as e: print(f"An unexpected error occurred for query '{query_term}': {e}") return images_data # 示例用法: if __name__ == "__main__": search_query = "basal cell carcinoma dermoscopy" print(f"--- 抓取第一页 '{search_query}' 的图片 ---") first_page_images = fetch_dermnet_images_from_api(search_query, start_index=1, num_results=16) if first_page_images: print(f"第一页共找到 {len(first_page_images)} 张图片。") for i, img in enumerate(first_page_images[:3]): # 只打印前3张示例 print(f" {i+1}. 标题: {img['title']}, URL: {img['url']}") else: print("未找到第一页图片或发生错误。") print(f"\n--- 抓取第二页 '{search_query}' 的图片 ---") # 假设每页16张,第二页从索引17开始 second_page_images = fetch_dermnet_images_from_api(search_query, start_index=17, num_results=16) if second_page_images: print(f"第二页共找到 {len(second_page_images)} 张图片。") for i, img in enumerate(second_page_images[:3]): # 只打印前3张示例 print(f" {i+1}. 标题: {img['title']}, URL: {img['url']}") else: print("未找到第二页图片或发生错误。")
在进行API抓取时,需要考虑以下几点以确保爬虫的稳定性和合规性:
当传统的网页爬取方法在面对JavaScript动态加载内容的网站时遇到困难,通过深入分析浏览器开发者工具中的网络请求,直接定位并利用网站后端调用的API接口,是一种更高效、更稳定的解决方案。这种方法不仅能绕过前端渲染的复杂性,直接获取结构化的数据,还能更好地处理分页等场景。掌握这一技能,是成为一名高级爬虫工程师的重要一步。
以上就是动态网站图片抓取进阶:利用Google CSE API绕过前端渲染限制的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 //m.sbmmt.com/ All Rights Reserved | php.cn | 湘ICP备2023035733号