> 백엔드 개발 > 파이썬 튜토리얼 > Python에서 대규모 데이터 처리 최적화: CSV 작업 병렬화 가이드

Python에서 대규모 데이터 처리 최적화: CSV 작업 병렬화 가이드

DDD
풀어 주다: 2024-12-13 06:26:15
원래의
232명이 탐색했습니다.

Optimizing Large-Scale Data Processing in Python: A Guide to Parallelizing CSV Operations

문제

pandas.read_csv() 사용과 같은 표준 접근 방식은 대규모 CSV 파일을 처리할 때 종종 부족합니다. 이러한 방법은 단일 스레드이며 디스크 I/O 또는 메모리 제한으로 인해 빠르게 병목 현상이 발생할 수 있습니다.


궁극의 Python 프로그래머 연습 시험


해결책

CSV 작업을 병렬화하면 여러 CPU 코어를 활용하여 데이터를 더 빠르고 효율적으로 처리할 수 있습니다. 이 가이드에서는 다음을 사용하는 기술을 설명합니다.

  1. Dask: Pandas 코드를 최소한으로 변경한 병렬 계산
  2. Polars: 고성능 DataFrame 라이브러리
  3. Python의 다중 처리 모듈: 사용자 정의 병렬화.
  4. 파일 분할: 더 작은 청크로 나누어 정복하세요.

기법

1. 대용량 파일 분할

큰 CSV 파일을 작은 단위로 나누면 병렬 처리가 가능합니다. 샘플 스크립트는 다음과 같습니다.

import os

def split_csv(file_path, lines_per_chunk=1000000):
    with open(file_path, 'r') as file:
        header = file.readline()
        file_count = 0
        output_file = None
        for i, line in enumerate(file):
            if i % lines_per_chunk == 0:
                if output_file:
                    output_file.close()
                file_count += 1
                output_file = open(f'chunk_{file_count}.csv', 'w')
                output_file.write(header)
            output_file.write(line)
        if output_file:
            output_file.close()
    print(f"Split into {file_count} files.")

로그인 후 복사

2. Dask를 이용한 병렬 처리

Dask는 Python에서 대규모 데이터를 처리하기 위한 획기적인 제품입니다. 대규모 데이터 세트에 대한 작업을 손쉽게 병렬화할 수 있습니다.

import dask.dataframe as dd

# Load the dataset as a Dask DataFrame
df = dd.read_csv('large_file.csv')

# Perform parallel operations
result = df[df['column_name'] > 100].groupby('another_column').mean()

# Save the result
result.to_csv('output_*.csv', single_file=True)

로그인 후 복사

Dask는 데이터 덩어리를 처리하고 사용 가능한 코어 전체에 걸쳐 작업을 지능적으로 예약하여 메모리 제약 조건을 처리합니다.


궁극의 Python 프로그래머 연습 시험


3. Polars와 함께하는 슈퍼차저

Polars는 Rust의 속도와 Python의 유연성을 결합한 비교적 새로운 라이브러리입니다. 최신 하드웨어용으로 설계되었으며 Pandas보다 훨씬 빠르게 CSV 파일을 처리할 수 있습니다.

import polars as pl

# Read CSV using Polars
df = pl.read_csv('large_file.csv')

# Filter and aggregate data
filtered_df = df.filter(pl.col('column_name') > 100).groupby('another_column').mean()

# Write to CSV
filtered_df.write_csv('output.csv')


로그인 후 복사

Polars는 속도와 병렬성이 중요한 상황에서 탁월한 성능을 발휘합니다. 다중 코어가 있는 시스템에 특히 효과적입니다.

4. 다중 처리를 통한 수동 병렬화

처리 논리를 계속 제어하고 싶다면 Python의 다중 처리 모듈이 CSV 작업을 병렬화하는 간단한 방법을 제공합니다.

from multiprocessing import Pool
import pandas as pd

def process_chunk(file_path):
    df = pd.read_csv(file_path)
    # Perform operations
    filtered_df = df[df['column_name'] > 100]
    return filtered_df

if __name__ == '__main__':
    chunk_files = [f'chunk_{i}.csv' for i in range(1, 6)]
    with Pool(processes=4) as pool:
        results = pool.map(process_chunk, chunk_files)

    # Combine results
    combined_df = pd.concat(results)
    combined_df.to_csv('final_output.csv', index=False)

로그인 후 복사

주요 고려사항

  1. 디스크 I/O와 CPU 바운드

    병렬 전략이 CPU 처리와 디스크 읽기/쓰기 속도의 균형을 맞추도록 하세요. 병목 현상이 I/O인지 계산인지에 따라 최적화하세요.

  2. 메모리 오버헤드

    Dask 또는 Polars와 같은 도구는 수동 다중 처리에 비해 메모리 효율성이 더 높습니다. 시스템의 메모리 제약에 맞는 도구를 선택하세요.

  3. 오류 처리

    병렬 처리는 디버깅 및 오류 관리에 복잡성을 가져올 수 있습니다. 신뢰성을 보장하기 위해 강력한 로깅 및 예외 처리를 구현합니다.


궁극의 Python 프로그래머 연습 시험

위 내용은 Python에서 대규모 데이터 처리 최적화: CSV 작업 병렬화 가이드의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

원천:dev.to
본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
인기 튜토리얼
더>
최신 다운로드
더>
웹 효과
웹사이트 소스 코드
웹사이트 자료
프론트엔드 템플릿