流大JSON

时间:2015-08-03 18:32:42

标签: go

我有一个存储在文件中的大量JSON数组(“file.json”) 我需要遍历数组并对每个元素执行一些操作。

err = json.Unmarshal(dat, &all_data)

导致内存不足 - 我猜是因为它首先将所有内容加载到内存中。

有没有办法按元素流式传输JSON元素?

3 个答案:

答案 0 :(得分:17)

这里有一个例子:https://golang.org/pkg/encoding/json/#example_Decoder_Decode_stream

package main

import (
    "encoding/json"
    "fmt"
    "log"
    "strings"
)

func main() {
    const jsonStream = `
                [
                    {"Name": "Ed", "Text": "Knock knock."},
                    {"Name": "Sam", "Text": "Who's there?"},
                    {"Name": "Ed", "Text": "Go fmt."},
                    {"Name": "Sam", "Text": "Go fmt who?"},
                    {"Name": "Ed", "Text": "Go fmt yourself!"}
                ]
            `
    type Message struct {
        Name, Text string
    }
    dec := json.NewDecoder(strings.NewReader(jsonStream))

    // read open bracket
    t, err := dec.Token()
    if err != nil {
        log.Fatal(err)
    }
    fmt.Printf("%T: %v\n", t, t)

    // while the array contains values
    for dec.More() {
        var m Message
        // decode an array value (Message)
        err := dec.Decode(&m)
        if err != nil {
            log.Fatal(err)
        }

        fmt.Printf("%v: %v\n", m.Name, m.Text)
    }

    // read closing bracket
    t, err = dec.Token()
    if err != nil {
        log.Fatal(err)
    }
    fmt.Printf("%T: %v\n", t, t)

}

答案 1 :(得分:2)

因此,正如评论者建议的那样,您可以使用“encoding / json”的流API一次读取一个字符串:

r := ... // get some io.Reader (e.g. open the big array file)
d := json.NewDecoder(r)
// read "["
d.Token()
// read strings one by one
for d.More() {
    s, _ := d.Token()
    // do something with s which is the newly read string
    fmt.Printf("read %q\n", s)
}
// (optionally) read "]"
d.Token()

请注意,为简单起见,我已经将错误处理留在了需要实现的地方。

答案 2 :(得分:1)

您还可以检查jsparser库,该库已通过大型json文件进行了测试,从而可以在最小的内存占用下进行基于流的解析。