Heim > Backend-Entwicklung > Python-Tutorial > Ausführliche Erklärung und Beispiele von Python urllib2

Ausführliche Erklärung und Beispiele von Python urllib2

高洛峰
Freigeben: 2016-10-18 09:10:05
Original
1292 Leute haben es durchsucht

urllib2 ist eine Komponente von Python, die URLs (Uniform Resource Locators) erhält. Es bietet eine sehr einfache Schnittstelle in Form der URL-Funktion

Diese bietet die Möglichkeit, URLs mithilfe verschiedener Protokolle abzurufen. Sie bietet auch eine komplexere Schnittstelle zur Handhabung allgemeiner Situationen, wie z. B. grundlegende Überprüfung, Cookies , Proxys und andere.

Sie werden über Handler und Opener-Objekte bereitgestellt.

urllib2 unterstützt das Abrufen von URLs in verschiedenen Formaten (Zeichenfolgen, die vor „:“ in der URL definiert sind, zum Beispiel: „ftp“ ist das Präfix von „ftp:python.ort/“), die die zugehörigen Netzwerkprotokolle verwenden (wie FTP, HTTP)

zu erhalten. Dieses Tutorial konzentriert sich auf die am weitesten verbreitete Anwendung – HTTP.

Für einfache Anwendungen ist urlopen sehr einfach zu verwenden. Wenn Sie jedoch beim Öffnen von HTTP-URLs auf Fehler oder Ausnahmen stoßen, benötigen Sie einige Kenntnisse des Hypertext Transfer Protocol (HTTP).

Das maßgeblichste HTTP-Dokument ist natürlich RFC 2616 (http://rfc.net/rfc2616.html). Da es sich um ein technisches Dokument handelt, ist es nicht leicht zu lesen. Der Zweck dieses HOWTO-Tutorials besteht darin, die Verwendung von urllib2 zu zeigen

und genügend HTTP-Details bereitzustellen, um Ihnen das Verständnis zu erleichtern. Es ist keine Dokumentation von urllib2, sondern spielt eine Hilfsrolle.

URLs abrufen

Der einfachste Weg, urllib2 zu verwenden, wäre wie folgt

import urllib2 
response = urllib2.urlopen('http://python.org/') 
html = response.read()
Nach dem Login kopieren

Viele Anwendungen von urllib2 sind einfach so Einfach (Denken Sie daran, dass die URL zusätzlich zu „http:“ auch durch „ftp:“, „file:“ usw. ersetzt werden kann.) Dieser Artikel lehrt jedoch komplexere Anwendungen von HTTP.

HTTP basiert auf dem Anfrage- und Antwortmechanismus – der Client stellt eine Anfrage und der Server stellt eine Antwort bereit. urllib2 verwendet ein Request-Objekt, um die von Ihnen gestellte HTTP-Anfrage abzubilden. In der einfachsten Form der Verwendung erstellen Sie ein Request-Objekt mit der

-Adresse, die Sie anfordern möchten, indem Sie urlopen aufrufen und das Request-Objekt übergeben. Sie werden ein zugehöriges Anforderungsantwortobjekt zurückgeben. Dieses Antwortobjekt ähnelt einem Dateiobjekt, sodass Sie .read() in der Antwort aufrufen können.

import urllib2 
req = urllib2.Request('http://www.pythontab.com') 
response = urllib2.urlopen(req) 
the_page = response.read()
Nach dem Login kopieren

Denken Sie daran, dass urllib2 dieselbe Schnittstelle verwendet, um alle URL-Header zu verarbeiten. Sie können beispielsweise eine FTP-Anfrage wie unten erstellen.

req = urllib2.Request('ftp://example.com/')

Ermöglicht Ihnen, zwei zusätzliche Dinge zu tun, wenn Sie HTTP-Anfragen stellen. Erstens können Sie Daten aus Daten senden, und zweitens können Sie zusätzliche Informationen über die Daten oder sich selbst („Metadaten“) an den Server senden. Diese Daten werden als HTTP-„Header“ gesendet.

Mal sehen, wie diese versendet werden.

Datendaten

Manchmal möchten Sie Daten an eine URL senden (normalerweise ist die URL in ein CGI-Skript [Common Gateway Interface] oder eine andere WEB-Anwendung eingebunden). In HTTP wird dies häufig über die bekannte POST-Anfrage gesendet. Dies wird normalerweise von Ihrem Browser durchgeführt, wenn Sie ein HTML-Formular absenden.

Nicht alle POSTs stammen aus Formularen. Sie können POST verwenden, um beliebige Daten an Ihr eigenes Programm zu übermitteln. Für allgemeine HTML-Formulare müssen die Daten in ein Standardformular kodiert werden. Übergeben Sie es dann als Datenparameter an das Request-Objekt. Die Codierung funktioniert mit urllib-Funktionen anstelle von urllib2.

import urllib 
import urllib2 
url = 'http://www.pythontab.com' 
values = {'name' : 'Michael Foord', 
          'location' : 'pythontab', 
          'language' : 'Python' } 
data = urllib.urlencode(values) 
req = urllib2.Request(url, data) 
response = urllib2.urlopen(req) 
the_page = response.read()
Nach dem Login kopieren

Denken Sie daran, dass manchmal andere Kodierungen erforderlich sind (z. B. Hochladen von Dateien aus HTML – siehe http://www.w3.org/TR/REC – html40/interact/forms.html#h-17.13 HTML-Spezifikation, detaillierte Beschreibung der Formularübermittlung).

Wenn ugoni den Datenparameter nicht überträgt, verwendet urllib2 die GET-Anfragemethode. Der Unterschied zwischen GET- und POST-Anfragen besteht darin, dass POST-Anfragen normalerweise „Nebenwirkungen“ haben. Sie ändern den Zustand des Systems auf irgendeine Weise (z. B. indem sie einen Haufen Müll an Ihre Tür senden).

Obwohl der HTTP-Standard klarstellt, dass POSTs normalerweise Nebenwirkungen haben und GET-Anfragen nicht, gibt es nichts, was verhindert, dass GET-Anfragen Nebenwirkungen haben, und ebenso dürfen POST-Anfragen keine Nebenwirkungen haben. Daten können auch durch Codierung in der URL selbst in der Get-Anfrage

übergeben werden.

Siehe das folgende Beispiel

>>> import urllib2 
>>> import urllib 
>>> data = {} 
>>> data['name'] = 'Somebody Here' 
>>> data['location'] = 'pythontab' 
>>> data['language'] = 'Python' 
>>> url_values = urllib.urlencode(data) 
>>> print url_values 
name=blueelwang+Here&language=Python&location=pythontab 
>>> url = 'http://www.pythontab.com' 
>>> full_url = url + '?' + url_values 
>>> data = urllib2.open(full_url)
Nach dem Login kopieren

Header

Wir werden hier spezifische HTTP-Header besprechen, um zu veranschaulichen, wie Sie Header zu Ihrer HTTP-Anfrage hinzufügen.

Es gibt einige Websites, auf die nicht gerne von Programmen zugegriffen wird (nicht-menschlicher Zugriff) oder die unterschiedliche Versionen von Inhalten an unterschiedliche Browser senden. Die Standard-URLlib2 identifiziert sich als „Python-urllib/x.y“ (x und y sind die Haupt- und Nebenversionsnummern von Python, wie z. B. Python-urllib/2.5). Diese Identität kann die Site verwirren, oder einfach nur Funktioniert nicht. Der Browser bestätigt seine Identität über den User-Agent-Header. Wenn Sie ein Anforderungsobjekt erstellen, können Sie ihm ein Wörterbuch mit den Header-Daten geben. Das folgende Beispiel sendet den gleichen Inhalt wie oben, emuliert sich jedoch selbst

als Internet Explorer.

import urllib 
import urllib2 
url = 'http://www.pythontab.com' 
user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)' 
  
values = {'name' : 'Michael Foord', 
          'location' : 'pythontab', 
          'language' : 'Python' } 
headers = { 'User-Agent' : user_agent } 
data = urllib.urlencode(values) 
req = urllib2.Request(url, data, headers) 
response = urllib2.urlopen(req) 
the_page = response.read()
Nach dem Login kopieren

Das Antwortobjekt verfügt außerdem über zwei nützliche Methoden. Wenn wir uns die Abschnitte „Info“ und „Geturl“ unten ansehen, werden wir sehen, was passiert, wenn ein Fehler auftritt.

Ausnahmen behandeln, die Ausnahmen behandeln

Wenn urlopen eine Antwort nicht verarbeiten kann, wird ein urlError generiert (aber gleichzeitig werden auch häufige Python-API-Ausnahmen wie ValueError, TypeError usw. generiert). .

HTTPError ist eine Unterklasse von urlError, die normalerweise in bestimmten HTTP-URLs generiert wird.

URLFehler

通常,URLError在没有网络连接(没有路由到特定服务器),或者服务器不存在的情况下产生。这种情况下,异常同样会带有"reason"属性,它是一个tuple,包含了一个错误号和一个错误信息。

例如

>>> req = urllib2.Request('http://www.pythontab.com') 
>>> try: urllib2.urlopen(req) 
>>> except URLError, e: 
>>>    print e.reason 
>>>
Nach dem Login kopieren

(4, 'getaddrinfo failed')

HTTPError

服务器上每一个HTTP 应答对象response包含一个数字"状态码"。有时状态码指出服务器无法完成请求。默认的处理器会为你处理一部分这种应答(例如:假如response是一个"重定向",需要客户端从别的地址获取文档

,urllib2将为你处理)。其他不能处理的,urlopen会产生一个HTTPError。典型的错误包含"404"(页面无法找到),"403"(请求禁止),和"401"(带验证请求)。

请看RFC 2616 第十节有所有的HTTP错误码

HTTPError实例产生后会有一个整型'code'属性,是服务器发送的相关错误号。

Error Codes错误码

因为默认的处理器处理了重定向(300以外号码),并且100-299范围的号码指示成功,所以你只能看到400-599的错误号码。

BaseHTTPServer.BaseHTTPRequestHandler.response是一个很有用的应答号码字典,显示了RFC 2616使用的所有的应答号。这里为了方便重新展示该字典。(译者略)

当一个错误号产生后,服务器返回一个HTTP错误号,和一个错误页面。你可以使用HTTPError实例作为页面返回的应答对象response。这表示和错误属性一样,它同样包含了read,geturl,和info方法。

>>> req = urllib2.Request('http://www.python.org/fish.html') 
>>> try: 
>>>     urllib2.urlopen(req) 
>>> except URLError, e: 
>>>     print e.code 
>>>     print e.read() 
>>>
Nach dem Login kopieren

404 
<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN" 
    "http://www.w3.org/TR/html4/loose.dtd"> 
<?xml-stylesheet href="./css/ht2html.css" 
    type="text/css"?> 
<html><head><title>Error 404: File Not Found</title> 
...... etc...
Nach dem Login kopieren

Wrapping it Up包装

所以如果你想为HTTPError或URLError做准备,将有两个基本的办法。我则比较喜欢第二种。

第一个:

from urllib2 import Request, urlopen, URLError, HTTPError 
req = Request(someurl) 
try: 
    response = urlopen(req) 
except HTTPError, e: 
    print &#39;The server couldn/&#39;t fulfill the request.&#39; 
    print &#39;Error code: &#39;, e.code 
except URLError, e: 
    print &#39;We failed to reach a server.&#39; 
    print &#39;Reason: &#39;, e.reason 
else: 
    # everything is fine
Nach dem Login kopieren


注意:except HTTPError 必须在第一个,否则except URLError将同样接受到HTTPError。

第二个:

from urllib2 import Request, urlopen, URLError 
req = Request(someurl) 
try: 
    response = urlopen(req) 
except URLError, e: 
    if hasattr(e, &#39;reason&#39;): 
        print &#39;We failed to reach a server.&#39; 
        print &#39;Reason: &#39;, e.reason 
    elif hasattr(e, &#39;code&#39;): 
        print &#39;The server couldn/&#39;t fulfill the request.&#39; 
        print &#39;Error code: &#39;, e.code 
else: 
    # everything is fine
Nach dem Login kopieren

info and geturl

urlopen返回的应答对象response(或者HTTPError实例)有两个很有用的方法info()和geturl()

geturl -- 这个返回获取的真实的URL,这个很有用,因为urlopen(或者opener对象使用的)或许

会有重定向。获取的URL或许跟请求URL不同。

info -- 这个返回对象的字典对象,该字典描述了获取的页面情况。通常是服务器发送的特定头headers。目前是httplib.HTTPMessage 实例。

经典的headers包含"Content-length","Content-type",和其他。查看Quick Reference to HTTP Headers(http://www.cs.tut.fi/~jkorpela/http.html)

获取有用的HTTP头列表,以及它们的解释意义。

Openers和Handlers

当你获取一个URL你使用一个opener(一个urllib2.OpenerDirector的实例,urllib2.OpenerDirector可能名字可能有点让人混淆。)正常情况下,我们

使用默认opener -- 通过urlopen,但你能够创建个性的openers,Openers使用处理器handlers,所有的“繁重”工作由handlers处理。每个handlers知道

如何通过特定协议打开URLs,或者如何处理URL打开时的各个方面,例如HTTP重定向或者HTTP cookies。

如果你希望用特定处理器获取URLs你会想创建一个openers,例如获取一个能处理cookie的opener,或者获取一个不重定向的opener。

要创建一个 opener,实例化一个OpenerDirector,然后调用不断调用.add_handler(some_handler_instance).

同样,可以使用build_opener,这是一个更加方便的函数,用来创建opener对象,他只需要一次函数调用。

build_opener默认添加几个处理器,但提供快捷的方法来添加或更新默认处理器。

其他的处理器handlers你或许会希望处理代理,验证,和其他常用但有点特殊的情况。

install_opener 用来创建(全局)默认opener。这个表示调用urlopen将使用你安装的opener。

Opener对象有一个open方法,该方法可以像urlopen函数那样直接用来获取urls:通常不必调用install_opener,除了为了方便。

Basic Authentication 基本验证

为了展示创建和安装一个handler,我们将使用HTTPBasicAuthHandler,为了更加细节的描述本主题--包含一个基础验证的工作原理。

请看Basic Authentication Tutorial(http://www.voidspace.org.uk/python/articles/authentication.shtml)

当需要基础验证时,服务器发送一个header(401错误码) 请求验证。这个指定了scheme 和一个‘realm’,看起来像这样:Www-authenticate: SCHEME realm="REALM".

例如

Www-authenticate: Basic realm="cPanel Users"

客户端必须使用新的请求,并在请求头里包含正确的姓名和密码。这是“基础验证”,为了简化这个过程,我们可以创建一个HTTPBasicAuthHandler的实例,并让opener使用这个

handler。

HTTPBasicAuthHandler使用一个密码管理的对象来处理URLs和realms来映射用户名和密码。如果你知道realm(从服务器发送来的头里)是什么,你就能使用HTTPPasswordMgr。

通常人们不关心realm是什么。那样的话,就能用方便的HTTPPasswordMgrWithDefaultRealm。这个将在你为URL指定一个默认的用户名和密码。这将在你为特定realm提供一个其他组合时

得到提供。我们通过给realm参数指定None提供给add_password来指示这种情况。

最高层次的URL是第一个要求验证的URL。你传给.add_password()更深层次的URLs将同样合适。

# 创建一个密码管理者 
password_mgr = urllib2.HTTPPasswordMgrWithDefaultRealm() 
# 添加用户名和密码 
# 如果知道 realm, 我们可以使用他代替 ``None``. 
top_level_url = "http://example.com/foo/" 
password_mgr.add_password(None, top_level_url, username, password) 
handler = urllib2.HTTPBasicAuthHandler(password_mgr) 
# 创建 "opener" (OpenerDirector 实例) 
opener = urllib2.build_opener(handler) 
# 使用 opener 获取一个URL 
opener.open(a_url) 
# 安装 opener. 
# 现在所有调用 urllib2.urlopen 将用我们的 opener. 
urllib2.install_opener(opener)
Nach dem Login kopieren

注意:以上的例子我们仅仅提供我们的HHTPBasicAuthHandler给build_opener。默认的openers有正常状况的handlers--ProxyHandler,UnknownHandler,HTTPHandler,HTTPDefaultErrorHandler, HTTPRedirectHandler, FTPHandler, FileHandler, HTTPErrorProcessor。

top_level_url 实际上可以是完整URL(包含"http:",以及主机名及可选的端口号)例如:http://example.com/,也可以是一个“authority”(即主机名和可选的

包含端口号)例如:“example.com” or “example.com:8080”(后者包含了端口号)。权限验证,如果递交的话不能包含"用户信息"部分,例如:

“joe@password:example.com”是错误的。

Proxies代理urllib 将自动监测你的代理设置并使用他们。这个通过ProxyHandler这个在正常处理器链中的对象来处理。通常,那工作的很好。但有时不起作用

。其中一个方法便是安装我们自己的代理处理器ProxyHandler,并不定义代理。这个跟使用Basic Authentication 处理器很相似。

>>> proxy_support = urllib.request.ProxyHandler({}) 
>>> opener = urllib.request.build_opener(proxy_support) 
>>> urllib.request.install_opener(opener)
Nach dem Login kopieren

   

注意:

此时urllib.request不支持通过代理获取https地址。但,这个可以通过扩展urllib.request达到目的。

Sockets and Layers

Python支持获取网络资源是分层结构。urllib 使用http.client库,再调用socket库实现。

在Python2.3你可以指定socket的等待回应超时时间。这个在需要获取网页的应用程序里很有用。默认的socket模型没有超时和挂起。现在,socket超时没有暴露

给http.client或者urllib.request层。但你可以给所有的sockets设置全局的超时。


Verwandte Etiketten:
Quelle:php.cn
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage