本教程旨在解决使用Python进行Web Scraping时,遇到的动态加载数据抓取问题。以TFL(伦敦交通局)自行车数据为例,演示如何通过分析XHR/API请求,从XML文件中提取所需的CSV文件链接。通过示例代码,详细讲解如何使用requests和BeautifulSoup库抓取动态加载的数据,并提供注意事项,帮助读者更有效地进行Web Scraping。
当使用传统的Web Scraping方法抓取网页时,有时会遇到网页内容是通过JavaScript动态加载的情况。直接使用requests库获取的HTML源码可能不包含所需的数据,导致只能抓取到一些静态内容,例如Terms and Conditions链接。解决这类问题的关键在于分析网页的XHR (XMLHttpRequest) / API请求,找到数据来源。
分析XHR/API请求
现代浏览器都提供了开发者工具,可以用来分析网络请求。以Chrome浏览器为例,打开开发者工具(通常按F12键),切换到Network标签,然后刷新网页。在Network标签中,可以看到浏览器发出的所有请求。我们需要找到返回数据的那一个。通常,这类请求的类型是XHR或者Fetch/XHR。
在这个TFL自行车数据的例子中,通过分析可以发现,数据存储在一个XML文件中,该文件可以通过以下URL访问:
https://s3-eu-west-1.amazonaws.com/cycling.data.tfl.gov.uk/?list-type=2&max-keys=1500
这个XML文件包含了所有CSV文件的链接信息。
使用BeautifulSoup解析XML数据
获取到XML数据后,可以使用BeautifulSoup库来解析它,提取出需要的CSV文件链接。以下是示例代码:
import requests from bs4 import BeautifulSoup url = 'https://s3-eu-west-1.amazonaws.com/cycling.data.tfl.gov.uk/?list-type=2&max-keys=1500' response = requests.get(url) soup = BeautifulSoup(response.text, 'xml') # 指定解析器为xml for content in soup.find_all('Contents'): key = content.find('Key').text if key.startswith('usage-stats') and key.endswith('.csv'): print('https://cycling.data.tfl.gov.uk/' + key)
代码解释:
注意事项:
总结:
通过分析XHR/API请求,可以解决动态加载数据的抓取问题。本教程以TFL自行车数据为例,演示了如何使用requests和BeautifulSoup库抓取XML数据,并提取所需的CSV文件链接。在实际应用中,需要根据具体情况进行分析和调整,才能更有效地进行Web Scraping。记住,负责任地进行Web Scraping,遵守网站的规定,并尊重网站的劳动成果。
以上就是Web Scraping动态加载数据:TFL自行车数据抓取教程的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 //m.sbmmt.com/ All Rights Reserved | php.cn | 湘ICP备2023035733号