1.当查询出来的记录过万时,遍历Rows的时间过长,达到1分钟甚至更多
程序代码:
rows, err := p.conn.Query(sqlStr, params...)
if err != nil {
log.Println("mysql query error", err.Error())
return nil, err
}
log.Println("conn结束:", goutil.GetCurrentTime())
//延时关闭Rows
defer rows.Close()
//获取记录列
if columns, err := rows.Columns(); err != nil {
return nil, err
} else {
//拼接记录Map
values := make([]sql.RawBytes, len(columns))
scans := make([]interface{}, len(columns))
for i := range values {
scans[i] = &values[i]
}
//此处遍历在3W记录的时候,长达1分钟甚至更多
for rows.Next() {
_ = rows.Scan(scans...)
each := map[string]interface{}{}
for i, col := range values {
each[columns[i]] = string(col)
}
rowMaps = append(rowMaps, each)
}
return rowMaps, nil
}
可以用建立多個goroutine 分段查詢資料。使用channl在執行緒中拿去查詢結構進行迭代。
這不是golang效能的問題,其他程式語言也會類似。一次去拿三萬筆記錄本來就是個不合理的需求,應該用分頁來解決,一次只取幾十到幾百筆。