まず、fiddler を開きます。Fiddler は http/https パケット キャプチャ アーティファクトであるため、ここでは紹介しません。
https を許可するように構成します
リモート接続を許可するように構成します。つまり、http プロキシを開きます
コンピュータ ip : 192.168.1.110
次に、携帯電話とコンピュータがローカル エリア ネットワーク内にあり、通信できることを確認します。ここでは Android スマートフォンを持っていないので、代わりに Android エミュレータを使用しましたが、効果は同じです。
モバイル ブラウザを開き、設定されたプロキシ アドレスである 192.168.1.110:8888 を入力します。証明書をインストールした後でのみ、パケットをキャプチャできます
その後証明書をインストールし、WiFi 設定でネットワークを変更し、http プロキシを手動で指定します。
保存後、fiddler はアプリ データをキャプチャできます。Kuaishou を開いて更新すると、そこにあることがわかります。 http リクエストが多数あります。一般的なインターフェイス アドレスなどは非常に明白です。これは、json 型
http ポスト リクエストであることがわかります。戻りデータは json です。展開すると、合計 20 個あることがわかります。動画情報については、まず正しいことを確認してから動画リンクを探してください。
次に、postman を開いてテストします。フォームデータ モードで送信すると、エラーが報告されます。
変更
エラー メッセージが異なります。ヘッダーを追加してください。
データが正常に返されました。さらに数回試してください。 、返される結果は毎回異なることがわかります。
コードを開始しましょう
# -*-coding:utf-8-*- # author : Corleone import urllib2,urllib import json,os,re,socket,time,sys import Queue import threading import logging # 日志模块 logger = logging.getLogger("AppName") formatter = logging.Formatter('%(asctime)s %(levelname)-5s: %(message)s') console_handler = logging.StreamHandler(sys.stdout) console_handler.formatter = formatter logger.addHandler(console_handler) logger.setLevel(logging.INFO) video_q = Queue.Queue() # 视频队列 def get_video(): url = "http://101.251.217.210/rest/n/feed/hot?app=0&lon=121.372027&c=BOYA_BAIDU_PINZHUAN&sys=ANDROID_4.1.2&mod=HUAWEI(HUAWEI%20C8813Q)&did=ANDROID_e0e0ef947bbbc243&ver=5.4&net=WIFI&country_code=cn&iuid=&appver=5.4.7.5559&max_memory=128&oc=BOYA_BAIDU_PINZHUAN&ftt=&ud=0&language=zh-cn&lat=31.319303 " data = { 'type': 7, 'page': 2, 'coldStart': 'false', 'count': 20, 'pv': 'false', 'id': 5, 'refreshTimes': 4, 'pcursor': 1, 'os': 'android', 'client_key': '3c2cd3f3', 'sig': '22769f2f5c0045381203fc57d1b5ad9b' } req = urllib2.Request(url) req.add_header("User-Agent", "kwai-android") req.add_header("Content-Type", "application/x-www-form-urlencoded") params = urllib.urlencode(data) try: html = urllib2.urlopen(req, params).read() except urllib2.URLError: logger.warning(u"网络不稳定 正在重试访问") html = urllib2.urlopen(req, params).read() result = json.loads(html) reg = re.compile(u"[\u4e00-\u9fa5]+") # 只匹配中文 for x in result['feeds']: try: title = x['caption'].replace("\n","") name = " ".join(reg.findall(title)) video_q.put([name, x['photo_id'], x['main_mv_urls'][0]['url']]) except KeyError: pass def download(video_q): path = u"D:\快手" while True: data = video_q.get() name = data[0].replace("\n","") id = data[1] url = data[2] file = os.path.join(path, name + ".mp4") logger.info(u"正在下载:%s" %name) try: urllib.urlretrieve(url,file) except IOError: file = os.path.join(path, u"神经病呀"+ '%s.mp4') %id try: urllib.urlretrieve(url, file) except (socket.error,urllib.ContentTooShortError): logger.warning(u"请求被断开,休眠2秒") time.sleep(2) urllib.urlretrieve(url, file) logger.info(u"下载完成:%s" % name) video_q.task_done() def main(): # 使用帮助 try: threads = int(sys.argv[1]) except (IndexError, ValueError): print u"\n用法: " + sys.argv[0] + u" [线程数:10] \n" print u"例如:" + sys.argv[0] + " 10" + u" 爬取视频 开启10个线程 每天爬取一次 一次2000个视频左右(空格隔开)" return False # 判断目录 if os.path.exists(u'D:\快手') == False: os.makedirs(u'D:\快手') # 解析网页 logger.info(u"正在爬取网页") for x in range(1,100): logger.info(u"第 %s 次请求" % x) get_video() num = video_q.qsize() logger.info(u"共 %s 视频" %num) # 多线程下载 for y in range(threads): t = threading.Thread(target=download,args=(video_q,)) t.setDaemon(True) t.start() video_q.join() logger.info(u"-----------全部已经爬取完成---------------") main()
テスト
マルチスレッド ダウンロードでは毎回約 2000 個のビデオがダウンロードされ、デフォルトでは D にダウンロードされます。 : \Kuaishou
関連するおすすめ: 「Python ビデオ チュートリアル 」
以上がPythonでKuaishouビデオをダウンロードする方法の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。