想法是:
給定一個大型虛擬 CSV(100 萬行)包含客戶資料樣本,並依照以下目標處理:
- 從 CSV 擷取資料
- 計算有多少資料/行
- 將每個城市的客戶數量分組
- 依顧客數量由高到低對城市進行排序
- 計算處理時間
客戶的 CSV 範例可以在此處下載 https://github.com/datablist/sample-csv-files
顯然 Go 有用於 CSV 處理的標準函式庫。我們不再需要第三方依賴來解決我們的問題,這很好。所以解決方案非常簡單:
// open the file to a reader interface c, err := os.Open("../data/customers-1000000.csv") if err != nil { log.Fatal(err) } defer c.Close() // load file reader into csv reader // Need to set FieldsPerRecord to -1 to skip fields checking r := csv.NewReader(c) r.FieldsPerRecord = -1 r.ReuseRecord = true records, err := r.ReadAll() if err != nil { log.Fatal(err) }
FieldsPerRecord 設定為 -1,因為我想跳過對行的欄位檢查,因為每種格式的欄位或列數可能不同
在此狀態下,我們已經能夠從 csv 載入和提取所有數據,並準備好進入下一個處理狀態。我們也可以使用函數 len(records) 來知道 CSV 中有多少行。
現在我們可以迭代記錄並建立包含城市名稱和總客戶的地圖,如下所示:
["Jakarta": 10, "Bandung": 200, ...]
csv 行中的城市資料位於第 7 個索引,程式碼如下所示
// create hashmap to populate city with total customers based on the csv data rows // hashmap will looks like be ["city name": 100, ...] m := map[string]int{} for i, record := range records { // skip header row if i == 0 { continue } if _, found := m[record[6]]; found { m[record[6]]++ } else { m[record[6]] = 1 } }
如果城市地圖不存在,則建立新地圖並將客戶總數設為1。否則只需增加給定城市的總數。
現在我們的地圖 m 包含城市的集合以及其中有多少客戶。至此我們已經解決了每個城市有多少客戶的分組問題。
我試圖找到標準庫中是否有任何函數可以對地圖進行排序,但不幸的是我找不到它。排序僅適用於切片,因為我們可以根據索引位置重新排列資料順序。所以,是的,讓我們從目前的地圖中切出一個切片。
// convert to slice first for sorting purposes dc := []CityDistribution{} for k, v := range m { dc = append(dc, CityDistribution{City: k, CustomerCount: v}) }
現在我們要如何按 CustomerCount 從最高到最低排序?最常見的演算法是使用氣泡空頭。雖然它不是最快的,但它可以完成這項工作。
冒泡排序是最簡單的排序演算法,如果相鄰元素的順序錯誤,它的工作原理是重複交換相鄰元素。該演算法不適合大型資料集,因為其平均和最壞情況時間複雜度相當高。
參考:https://www.geeksforgeeks.org/bubble-sort-algorithm/
使用我們的切片,它將循環資料並檢查索引的下一個值,如果當前資料小於下一個索引,則交換它。詳細演算法可以在參考網站查看。
現在我們的排序過程可能是這樣的
// open the file to a reader interface c, err := os.Open("../data/customers-1000000.csv") if err != nil { log.Fatal(err) } defer c.Close() // load file reader into csv reader // Need to set FieldsPerRecord to -1 to skip fields checking r := csv.NewReader(c) r.FieldsPerRecord = -1 r.ReuseRecord = true records, err := r.ReadAll() if err != nil { log.Fatal(err) }
循環結束時,最後的切片將為我們提供排序後的資料。
計算處理時間非常簡單,我們取得執行程式主進程之前和之後的時間戳記併計算差值。在 Go 中,方法應該夠簡單:
["Jakarta": 10, "Bandung": 200, ...]
使用指令運行程式
// create hashmap to populate city with total customers based on the csv data rows // hashmap will looks like be ["city name": 100, ...] m := map[string]int{} for i, record := range records { // skip header row if i == 0 { continue } if _, found := m[record[6]]; found { m[record[6]]++ } else { m[record[6]] = 1 } }
列印出來的是行數、排序資料和處理時間。像下面這樣:
正如 Go 效能所預期的那樣,它在 1 秒內處理了 100 萬行 csv!
所有已完成的程式碼已發佈在我的 Github 儲存庫上:
https://github.com/didikz/csv-processing/tree/main/golang
我認為我目前的解決方案可能可以進一步優化,因為我循環提取了csv 的所有記錄來映射,如果我們檢查ReadAll() 來源,它還有循環來根據給定的檔案讀取器建立切片。這樣,1 百萬行可以為 1 百萬資料產生 2 個循環,這不太好。
我想如果我可以直接從檔案讀取器讀取數據,它只需要 1 個循環,因為我可以直接從中建立地圖。除了記錄切片將在其他地方使用,但在本例中不使用。
我還沒有時間弄清楚,但我也認為如果我手動完成會有一些缺點:
編碼快樂!
以上是使用 Go 處理大型 CSV的詳細內容。更多資訊請關注PHP中文網其他相關文章!