효율적인 데이터 처리를 위해 Python에서 HTTP 요청을 어떻게 최적화할 수 있나요?

DDD
풀어 주다: 2024-11-24 12:22:34
원래의
146명이 탐색했습니다.

How can I optimize HTTP requests in Python for efficient data processing?

Python에서 HTTP 요청 최적화

Python에서 수많은 HTTP 요청을 신속하게 보내야 하는 필요성이 종종 발생하며, 특히 대규모 데이터세트를 처리할 때 더욱 그렇습니다. 그러나 Python의 다양한 동시성 및 스레딩 옵션 중에서 가장 효율적인 접근 방식을 선택하는 것은 어려울 수 있습니다. 한 가지 실행 가능한 솔루션은 간단하면서도 효과적인 방법을 활용하는 것입니다.

효율적인 HTTP 요청 구현

다음 코드는 Python(2.6)에서 매우 효율적인 구현을 보여줍니다. 호환성):

import urlparse
from threading import Thread
import httplib, sys
from Queue import Queue

concurrent = 200

def doWork():
    while True:
        url = q.get()
        status, url = getStatus(url)
        doSomethingWithResult(status, url)
        q.task_done()

def getStatus(ourl):
    try:
        url = urlparse(ourl)
        conn = httplib.HTTPConnection(url.netloc)
        conn.request("HEAD", url.path)
        res = conn.getresponse()
        return res.status, ourl
    except:
        return "error", ourl

def doSomethingWithResult(status, url):
    print status, url

q = Queue(concurrent * 2)
for i in range(concurrent):
    t = Thread(target=doWork)
    t.daemon = True
    t.start()
try:
    for url in open('urllist.txt'):
        q.put(url.strip())
    q.join()
except KeyboardInterrupt:
    sys.exit(1)
로그인 후 복사

설명

  • 멀티스레딩: 코드는 멀티스레딩을 사용하여 작업을 동시에 실행합니다. 스레드는 독립적으로 HTTP 요청을 수행하므로 순차 실행에 비해 대기 시간이 줄어듭니다.
  • 캐싱: 대기열(q)을 사용하여 코드는 각 스레드에 대한 불필요한 URL 구문 분석 및 연결 설정을 방지하여 더욱 향상됩니다.
  • 스레드 최적화: 데몬 스레드(t.daemon = True)를 설정하면 프로그램이 메인 스레드가 예기치 않게 종료되면 정상적으로 종료됩니다.
  • HTTP HEAD 요청: "HEAD" 메소드는 전체 웹 페이지를 다운로드하지 않고 상태 코드만 검색하는 데 사용되므로 대역폭 소비가 최소화됩니다.

이 최적화된 솔루션은 리소스 사용과 작업 실행의 균형을 맞추는 간소화된 접근 방식을 활용하여 기존 방법보다 성능이 뛰어납니다. 속도.

위 내용은 효율적인 데이터 처리를 위해 Python에서 HTTP 요청을 어떻게 최적화할 수 있나요?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

원천:php.cn
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿