最近需要爬取某網站,無奈頁面都是JS渲染後產生的,普通的爬蟲框架搞不定,於是想到用Phantomjs搭一個代理。
Python呼叫Phantomjs貌似沒有現成的第三方函式庫(如果有,請告知小2),漫步了一圈,發現只有pyspider提供了現成的方案。
簡單試用了一下,感覺pyspider更像一個為新手打造的爬蟲工具,好比一個老媽子,有時無微不至,有時喋喋不休。
輕巧的小工具應該更受人喜愛,我也懷著一點私心,可以帶著我最愛的BeautifulSoup一塊兒用,而不用再學PyQuery(pyspider用來解析HTML),更不用忍受瀏覽器寫Python的糟糕體驗(偷笑)。
所以花了一個下午的時間,把pyspider當中實現Phantomjs代理的部分拆了出來,獨立成一個小的爬蟲模組,希望大家會喜歡(感謝binux!)。
準備工作
你當然要有Phantomjs,廢話! (Linux下最好用supervisord守護,必須保持抓取的時候Phantomjs一直處於開啟狀態)
用專案路徑下的phantomjs_fetcher.js啟動:phantomjs phantomjs_fetcher.js [port]
的依賴httpclient模組)
呼叫是超簡單的
from tornado_fetcher import Fetcher # 创建一个爬虫 >>> fetcher=Fetcher( user_agent='phantomjs', # 模拟浏览器的User-Agent phantomjs_proxy='http://localhost:12306', # phantomjs的地址 poolsize=10, # 最大的httpclient数量 async=False # 同步还是异步 ) # 开始连接Phantomjs的代理,可以渲染JS! >>> fetcher.phantomjs_fetch(url) # 渲染成功后执行额外的JS脚本(注意用function包起来!) >>> fetcher.phantomjs_fetch(url, js_script='function(){setTimeout("window.scrollTo(0,100000)}", 1000)')