高效解码大流 JSON
巨大的 JSON 数组在一次性解码时可能会带来内存挑战。为了解决这个问题,建议采用一种逐个迭代元素的流式方法。
按元素流式传输 JSON 元素
encoding/json 包提供一种流式传输 JSON 数据的方法。下面是一个示例:
import ( "encoding/json" "fmt" "log" "strings" ) func main() { const jsonStream = ` [ {"Name": "Ed", "Text": "Knock knock."}, {"Name": "Sam", "Text": "Who's there?"}, {"Name": "Ed", "Text": "Go fmt."}, {"Name": "Sam", "Text": "Go fmt who?"}, {"Name": "Ed", "Text": "Go fmt yourself!"} ]` dec := json.NewDecoder(strings.NewReader(jsonStream)) // skip the opening bracket dec.Token() // read and process each element for dec.More() { var message Message if err := dec.Decode(&message); err != nil { log.Fatal(err) } fmt.Printf("%v: %v\n", message.Name, message.Text) } // skip the closing bracket dec.Token() }
在此代码中,我们使用 json.NewDecoder 为 JSON 流创建解码器。然后,我们迭代流,跳过左括号和右括号({ 和 }),并使用 dec.More() 检查是否还有更多元素要处理。
对于每个元素,我们创建一个 Message 结构体并使用 dec.Decode 将 JSON 数据解码为其中。然后,我们打印消息的名称和文本字段。
这种方法允许我们处理大型 JSON 数组,而无需将整个数组加载到内存中,从而避免内存不足错误并提高性能。
以上是如何在 Go 中高效解码大型流式 JSON 数据?的详细内容。更多信息请关注PHP中文网其他相关文章!