urllib は、URL を操作するための一連の関数を提供します。関数。関連するコンテンツを分類します。
urllib の リクエスト
モジュールは URL コンテンツを非常に簡単に取得できます。つまり、指定されたページに GET リクエストを送信し、HTTP レスポンスを返すことができます。 , Douban URL
https://api.growingio.com/v2/22c937bbd8ebd703f2d8e9445f7dfd03/web/pv?stm=1593747087078 をクロールし、応答を返します:##
from urllib import request with request.urlopen('https://api.growingio.com/v2/22c937bbd8ebd703f2d8e9445f7dfd03/web/pv?stm=1593747087078') as f: data = f.read() print('Status:', f.status, f.reason) for k, v in f.getheaders(): print('%s: %s' % (k, v)) print('Data:', data.decode('utf-8'))
HTTP 応答のヘッダーと JSON データを確認できます:
GET リクエストを送信するブラウザをシミュレートしたい場合は、Request
## を使用する必要があります。 Request に移動してオブジェクトを作成します。HTTP ヘッダーをオブジェクトに追加すると、リクエストをブラウザとして偽装できます。たとえば、iPhone 6 をシミュレートして Douban ホームページをリクエストします。
from urllib import request req = request.Request('http://www.douban.com/') req.add_header('User-Agent', 'Mozilla/6.0 (iPhone; CPU iPhone OS 8_0 like Mac OS X) AppleWebKit/536.26 (KHTML, like Gecko) Version/8.0 Mobile/10A5376e Safari/8536.25') with request.urlopen(req) as f: print('Status:', f.status, f.reason) for k, v in f.getheaders(): print('%s: %s' % (k, v)) print('Data:', f.read().decode('utf-8'))
このようにして、Douban は、次のような Web ページに適したモバイル バージョンの Web ページを返します。 iPhone:
data をバイト単位で渡すだけです。
模拟一个微博登录,先读取登录的邮箱和口令,然后按照weibo.cn的登录页的格式以username=xxx&password=xxx
的编码传入:
from urllib import request, parse print('Login to weibo.cn...') #电子邮件 email = input('Email: ') #密码 passwd = input('Password: ') #相关的参数 login_data = parse.urlencode([ ('username', email), ('password', passwd), ('entry', 'mweibo'), ('client_id', ''), ('savestate', '1'), ('ec', ''), ('pagerefer', 'https://passport.weibo.cn/signin/welcome?entry=mweibo&r=http%3A%2F%2Fm.weibo.cn%2F') ]) #网址请求 req = request.Request('https://passport.weibo.cn/sso/login') req.add_header('Origin', 'https://passport.weibo.cn') #构造User-Agent req.add_header('User-Agent', 'Mozilla/6.0 (iPhone; CPU iPhone OS 8_0 like Mac OS X) AppleWebKit/536.26 (KHTML, like Gecko) Version/8.0 Mobile/10A5376e Safari/8536.25') req.add_header('Referer', 'https://passport.weibo.cn/signin/login?entry=mweibo&res=wel&wm=3349&r=http%3A%2F%2Fm.weibo.cn%2F') with request.urlopen(req, data=login_data.encode('utf-8')) as f: print('Status:', f.status, f.reason) for k, v in f.getheaders(): print('%s: %s' % (k, v)) print('Data:', f.read().decode('utf-8'))
如果登录成功,获得的响应如下:
如果登录失败,获得的响应如下:
如果还需要更复杂的控制,比如通过一个Proxy去访问网站,需要利用ProxyHandler
来处理,示例代码如下:
import urllib.request # 构建了两个代理Handler,一个有代理IP,一个没有代理IP httpproxy_handler = urllib.request.ProxyHandler({"https": "27.191.234.69:9999"}) nullproxy_handler = urllib.request.ProxyHandler({}) # 定义一个代理开关 proxySwitch = True # 通过 urllib.request.build_opener()方法使用这些代理Handler对象,创建自定义opener对象 # 根据代理开关是否打开,使用不同的代理模式 if proxySwitch: opener = urllib.request.build_opener(httpproxy_handler) else: opener = urllib.request.build_opener(nullproxy_handler) request = urllib.request.Request("http://www.baidu.com/") # 1. 如果这么写,只有使用opener.open()方法发送请求才使用自定义的代理,而urlopen()则不使用自定义代理。 response = opener.open(request) # 2. 如果这么写,就是将opener应用到全局,之后所有的,不管是opener.open()还是urlopen() 发送请求,都将使用自定义代理。 # urllib.request.install_opener(opener) # response = urllib.request.urlopen(request) # 获取服务器响应内容 html = response.read().decode("utf-8") # 打印结果 print(html)
如果代理成功返回网址的信息。
URL が間違っている場合、またはプロキシ アドレスが間違っている場合は、以下のインターフェイスに戻ってください。
Python 言語を使用すると、誰もが Python をより良く学ぶことができます。 urllib が提供する機能は、プログラムを使用してさまざまな HTTP リクエストを実行することです。ブラウザをシミュレートして特定の機能を実行したい場合は、リクエストをブラウザとして偽装する必要があります。偽装の方法は、ブラウザから送信されるリクエストを監視し、ブラウザの識別に使用されるリクエストヘッダーであるUser-Agentヘッダーに基づいてリクエストを偽装することです。
以上がこの記事では、Python の urllib ライブラリ (URL の操作) について説明します。の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。