• 技术文章 >后端开发 >Python教程

    Python写爬虫都用到什么库

    silencementsilencement2019-06-21 15:34:32原创5325

    Python爬虫,全称Python网络爬虫,是一种按照一定的规则,自动地抓取万维网信息的程序或脚本,主要用于抓取证券交易数据、天气数据、网站用户数据和图片数据等,Python为支持网络爬虫正常功能实现,内置了大量的库,主要有几种类型。下面本篇文章就来给大家介绍。

    一、Python爬虫网络库

    Python爬虫网络库主要包括:urllib、requests、grab、pycurl、urllib3、httplib2、RoboBrowser、MechanicalSoup、mechanize、socket、Unirest for Python、hyper、PySocks、treq以及aiohttp等。

    二、Python网络爬虫框架

    Python网络爬虫框架主要包括:grab、scrapy、pyspider、cola、portia、restkit以及demiurge等。

    三、HTML/XML解析器 

    ● lxml:C语言编写高效HTML/ XML处理库。支持XPath。

    ● cssselect:解析DOM树和CSS选择器。

    ● pyquery:解析DOM树和jQuery选择器。

    ● BeautifulSoup:低效HTML/ XML处理库,纯Python实现。

    ● html5lib:根据WHATWG规范生成HTML/ XML文档的DOM。该规范被用在现在所有的浏览器上。

    ● feedparser:解析RSS/ATOM feeds。

    ● MarkupSafe:为XML/HTML/XHTML提供了安全转义的字符串。

    ● xmltodict:一个可以让你在处理XML时感觉像在处理JSON一样的Python模块。

    ● xhtml2pdf:将HTML/CSS转换为PDF。

    ● untangle:轻松实现将XML文件转换为Python对象。

    四、文本处理

    用于解析和操作简单文本的库。

    ● difflib:(Python标准库)帮助进行差异化比较。

    ● Levenshtein:快速计算Levenshtein距离和字符串相似度。

    ● fuzzywuzzy:模糊字符串匹配。

    ● esmre:正则表达式加速器。

    ● ftfy:自动整理Unicode文本,减少碎片化。

    五、特定格式文件处理

    解析和处理特定文本格式的库。

    ● tablib:一个把数据导出为XLS、CSV、JSON、YAML等格式的模块。

    ● textract:从各种文件中提取文本,比如 Word、PowerPoint、PDF等。

    ● messytables:解析混乱的表格数据的工具。

    ● rows:一个常用数据接口,支持的格式很多(目前支持CSV,HTML,XLS,TXT:将来还会提供更多!)。

    以上就是Python写爬虫都用到什么库的详细内容,更多请关注php中文网其它相关文章!

    声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn核实处理。
    专题推荐:Python爬虫库
    上一篇:python和爬虫有什么关系 下一篇:python里d是什么意思
    20期PHP线上班

    相关文章推荐

    • 【活动】充值PHP中文网VIP即送云服务器• python是什么编程语言• python为什么是脚本语言• python中divmod是什么
    1/1

    PHP中文网