스크래핑을 위한 HTTP 데이터 소비 최적화
HTTP GET 데이터 스크래핑 작업의 효율성을 높이려면 가능성을 고려하는 것이 중요합니다. 상당한 양의 데이터를 전달하는 URL을 발견하는 경우가 많습니다. 이를 방지하려면 GET 요청이 수신하는 데이터 크기를 제한하여 잠재적인 병목 현상을 방지하세요.
해결책: io.LimitedReader로 데이터 소비 제한
다행히 Go의 io 패키지는 편리한 솔루션인 io.LimitedReader를 제공합니다. 제공된 io.Reader에서 읽는 데이터의 양을 정의된 제한으로 제한하여 이 제한에 도달하면 데이터 검색을 효과적으로 차단합니다.
limitedReader := &io.LimitedReader{R: response.Body, N: limit} body, err := io.ReadAll(limitedReader)
이 예에서 io.LimitedReader는 읽기 데이터를 제한합니다. HTTP 응답 본문에서 지정된 제한까지.
또는 io.LimitReader 함수를 사용하여 동일한 결과를 얻을 수도 있습니다. 결과:
body, err := io.ReadAll(io.LimitReader(response.Body, limit))
io.LimitedReader 또는 io.LimitReader를 활용하면 HTTP GET 요청에서 검색되는 데이터의 양을 효과적으로 제어하여 스크레이퍼가 과도한 데이터로 인해 압도당하는 것을 방지할 수 있습니다.
위 내용은 데이터 스크레이퍼에 과부하가 걸리는 것을 방지하기 위해 HTTP GET 요청을 어떻게 최적화할 수 있습니까?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!