• 技术文章 >后端开发 >Python教程

    python爬虫时常用的库的相关介绍

    爱喝马黛茶的安东尼爱喝马黛茶的安东尼2019-06-14 16:29:03原创1024
    Python爬虫,全称Python网络爬虫,是一种按照一定的规则,自动地抓取万维网信息的程序或脚本,主要用于抓取证券交易数据、天气数据、网站用户数据和图片数据等,Python为支持网络爬虫正常功能实现,内置了大量的库。

    相关推荐:《python视频

    主要有以下类型:

    一、Python爬虫网络库

    Python爬虫网络库主要包括:urllib、requests、grab、pycurl、urllib3、httplib2、RoboBrowser 、MechanicalSoup、mechanize、socket、Unirest for Python、hyper、PySocks、treq以及aiohttp等。

    二、Python网络爬虫框架

    Python网络爬虫框架主要包括:grab、scrapy、pyspider、cola、portia、restkit以及demiurge等。

    三、HTML/XML解析器

    lxml:C语言编写高效HTML/ XML处理库,支持XPath;

    cssselect:解析DOM树和CSS选择器;

    pyquery:解析DOM树和jQuery选择器;

    BeautifulSoup:低效HTML/ XML处理库,纯Python实现;

    html5lib:根据WHATWG规范生成HTML/ XML文档的DOM,该规范被用在现在所有的浏览器上;

    feedparser:解析RSS/ATOM feeds;

    MarkupSafe:为XML/HTML/XHTML提供了安全转义的字符串;

    xmltodict:一个可以让你在处理XML时感觉像在处理JSON一样的Python模块;

    xhtml2pdf:将HTML/CSS转换为PDF;

    untangle:轻松实现将XML文件转换为Python对象;

    Bleach:清理HTML(需要html5lib);

    四、文本处理

    difflib:帮助进行差异化比较;

    Levenshtein:快速计算Levenshtein距离和字符串相似度;

    fuzzywuzzy:模糊字符串匹配;

    esmre:正则表达式加速器;

    ftfy:自动整理Unicode文本,减少碎片化;

    unidecode:将Unicode文本转为ASCII;

    uniout:打印可读字符,而不是被转义的字符串;

    chardet:兼容 Python的2/3的字符编码器;

    xpinyin:一个将中国汉字转为拼音的库;

    pangu.py:格式化文本中CJK和字母数字的间距。

    awesome-slugify:一个可以保留unicode的Python slugify库;

    python-slugify:一个可以将Unicode转为ASCII的Python slugify库;

    unicode-slugify:一个可以将生成Unicode slugs的工具;

    pytils:处理俄语字符串的简单工具(包括pytils.translit.slugify);

    PLY:lex和yacc解析工具的Python实现;

    pyparsing:一个通用框架的生成语法分析器;

    python-nameparser:解析人的名字的组件;

    phonenumbers:解析,格式化,存储和验证国际电话号码;

    python-user-agents:浏览器用户代理的解析器;

    HTTP Agent Parser:Python的HTTP代理分析器。

    五、特定格式文件处理

    tablib:一个把数据导出为XLS、CSV、JSON、YAML等格式的模块;

    textract:从各种文件中提取文本,比如 Word、PowerPoint、PDF等;

    messytables:解析混乱的表格数据的工具;

    rows:一个常用数据接口,支持的格式很多,目前支持CSV,HTML,XLS,TXT;

    python-docx:读取,查询和修改的Microsoft Word2007/2008的docx文件;

    xlwt / xlrd:从Excel文件读取写入数据和格式信息;

    XlsxWriter:一个创建Excel.xlsx文件的Python模块;

    xlwings:一个BSD许可的库,可以很容易地在Excel中调用Python,反之亦然;

    openpyxl:一个用于读取和写入的Excel2010 XLSX/ XLSM/ xltx/ XLTM文件的库;

    Marmir:提取Python数据结构并将其转换为电子表格;

    PDFMiner:一个从PDF文档中提取信息的工具;

    PyPDF2:一个能够分割、合并和转换PDF页面的库;

    ReportLab:允许快速创建丰富的PDF文档;

    pdftables:直接从PDF文件中提取表格;

    Python-Markdown:一个用Python实现的John Gruber的Markdown;

    Mistune:速度最快,功能全面的Markdown纯Python解析器;

    markdown2:一个完全用Python实现的快速的Markdown;

    PyYAML:一个Python的YAML解析器;

    cssutils:一个Python的CSS库;

    feedparser:通用的feed解析器;

    sqlparse:一个非验证的SQL语句分析器;

    http-parser:C语言实现的HTTP请求/响应消息解析器;

    opengraph:一个用来解析Open Graph协议标签的Python模块;

    pefile:一个多平台的用于解析和处理可移植执行体(即PE)文件的模块;

    psd-tools:将Adobe Photoshop PSD(即PE)文件读取到Python数据结构。

    六、自然语言处理

    NLTK:编写Python程序来处理人类语言数据的最好平台;

    Pattern:Python的网络挖掘模块;

    TextBlob:为深入自然语言处理任务提供了一致的API。是基于NLTK以及Pattern的巨人之肩上发展的;

    jieba:中文分词工具;

    SnowNLP:中文文本处理库;

    loso:另一个中文分词库;

    genius:基于条件随机域的中文分词;

    langid.py:独立的语言识别系统;

    Korean:一个韩文形态库;

    pymorphy2:俄语形态分析器(词性标注+词形变化引擎);

    PyPLN:用Python编写的分布式自然语言处理通道。这个项目的目标是创建一种简单的方法使用NLTK通过网络接口处理大语言库。

    七、浏览器自动化与仿真

    selenium:自动化真正的浏览器(Chrome浏览器,火狐浏览器,Opera浏览器,IE浏览器);

    Ghost.py:对PyQt的webkit的封装(需要PyQT);

    Spynner:对PyQt的webkit的封装(需要PyQT);

    Splinter:通用API浏览器模拟器(selenium web驱动,Django客户端,Zope)。

    八、多重处理

    threading:Python标准库的线程运行。对于I/O密集型任务很有效。对于CPU绑定的任务没用,因为python GIL;

    multiprocessing:标准的Python库运行多进程;

    celery:基于分布式消息传递的异步任务队列/作业队列;

    concurrent-futures:concurrent-futures 模块为调用异步执行提供了一个高层次的接口。

    九、异步网络编程库

    asyncio:(在Python 3.4 +版本以上的 Python标准库)异步I/O,时间循环,协同程序和任务;

    Twisted:基于事件驱动的网络引擎框架;

    Tornado:一个网络框架和异步网络库;

    pulsar:Python事件驱动的并发框架;

    diesel:Python的基于绿色事件的I/O框架;

    gevent:一个使用greenlet 的基于协程的Python网络库;

    eventlet:有WSGI支持的异步框架;

    Tomorrow:异步代码的奇妙的修饰语法。

    十、队列

    celery:基于分布式消息传递的异步任务队列/作业队列;

    huey:小型多线程任务队列;

    RQ:基于Redis的轻量级任务队列管理器;

    simpleq:一个简单的,可无限扩展,基于Amazon SQS的队列;

    python-gearman:Gearman的Python API。

    十一、云计算

    picloud:云端执行Python代码;

    dominoup.com:云端执行R,Python和matlab代码。

    十二、电子邮件

    flanker:电子邮件地址和Mime解析库;

    Talon:Mailgun库用于提取消息的报价和签名。

    十三、网址和网络地址操作

    furl:一个小的Python库,使得操纵URL简单化;

    purl:一个简单的不可改变的URL以及一个干净的用于调试和操作的API;

    urllib.parse:用于打破统一资源定位器(URL)的字符串在组件之间的隔断,为了结合组件到一个URL字符串,并将“相对URL”转化为一个绝对URL,称之为“基本URL”;

    tldextract:从URL的注册域和子域中准确分离TLD,使用公共后缀列表;

    etaddr:用于显示和操纵网络地址的Python库。

    十四、网页内容提取

    ewspaper:用Python进行新闻提取、文章提取和内容策展;

    html2text:将HTML转为Markdown格式文本;

    python-goose:HTML内容、文章提取器;

    lassie:人性化的网页内容检索工具;

    micawber:一个从网址中提取丰富内容的小库;

    sumy:一个自动汇总文本文件和HTML网页的模块;

    Haul:一个可扩展的图像爬虫;

    python-readability:arc90 readability工具的快速Python接口;

    scrapely:从HTML网页中提取结构化数据的库;

    youtube-dl:一个从YouTube下载视频的小命令行程序;

    you-get:Python3的YouTube、优酷/ Niconico视频下载器;

    WikiTeam:下载和保存wikis的工具。

    十五、WebSocket

    Crossbar:开源的应用消息传递路由器;

    AutobahnPython:提供了WebSocket协议和WAMP协议的Python实现并且开源;

    WebSocket-for-Python:Python 2和3以及PyPy的WebSocket客户端和服务器库。

    十六、DNS解析

    dnsyo:在全球超过1500个的DNS服务器上检查你的DNS;

    pycares:c-ares的接口。

    十七、计算机视觉

    OpenCV:开源计算机视觉库;

    SimpleCV:用于照相机、图像处理、特征提取、格式转换的简介,可读性强的接口;

    mahotas:快速计算机图像处理算法,完全基于 numpy 的数组作为它的数据类型。

    十八、代理服务器

    shadowsocks:一个快速隧道代理,可帮你穿透防火墙;

    tproxy:tproxy是一个简单的TCP路由代理,基于Gevent,用Python进行配置。

    以上就是python爬虫时常用的库的相关介绍的详细内容,更多请关注php中文网其它相关文章!

    声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn核实处理。
    专题推荐:python 爬虫
    上一篇:python缩进是强制吗 下一篇:网络python爬虫难吗
    千万级数据并发解决方案

    相关文章推荐

    • python爬虫看哪本书• python的爬虫框架有哪些• Python爬虫如何设置代理• request timeout是什么意思
    1/1

    PHP中文网