我有一个存储在文件中的大量JSON数组(“file.json”) 我需要遍历数组并对每个元素执行一些操作。
err = json.Unmarshal(dat, &all_data)
导致内存不足 - 我猜是因为它首先将所有内容加载到内存中。
有没有办法按元素流式传输JSON元素?
答案 0 :(得分:17)
这里有一个例子:https://golang.org/pkg/encoding/json/#example_Decoder_Decode_stream。
package main
import (
"encoding/json"
"fmt"
"log"
"strings"
)
func main() {
const jsonStream = `
[
{"Name": "Ed", "Text": "Knock knock."},
{"Name": "Sam", "Text": "Who's there?"},
{"Name": "Ed", "Text": "Go fmt."},
{"Name": "Sam", "Text": "Go fmt who?"},
{"Name": "Ed", "Text": "Go fmt yourself!"}
]
`
type Message struct {
Name, Text string
}
dec := json.NewDecoder(strings.NewReader(jsonStream))
// read open bracket
t, err := dec.Token()
if err != nil {
log.Fatal(err)
}
fmt.Printf("%T: %v\n", t, t)
// while the array contains values
for dec.More() {
var m Message
// decode an array value (Message)
err := dec.Decode(&m)
if err != nil {
log.Fatal(err)
}
fmt.Printf("%v: %v\n", m.Name, m.Text)
}
// read closing bracket
t, err = dec.Token()
if err != nil {
log.Fatal(err)
}
fmt.Printf("%T: %v\n", t, t)
}
答案 1 :(得分:2)
因此,正如评论者建议的那样,您可以使用“encoding / json”的流API一次读取一个字符串:
r := ... // get some io.Reader (e.g. open the big array file)
d := json.NewDecoder(r)
// read "["
d.Token()
// read strings one by one
for d.More() {
s, _ := d.Token()
// do something with s which is the newly read string
fmt.Printf("read %q\n", s)
}
// (optionally) read "]"
d.Token()
请注意,为简单起见,我已经将错误处理留在了需要实现的地方。
答案 2 :(得分:1)
您还可以检查jsparser库,该库已通过大型json文件进行了测试,从而可以在最小的内存占用下进行基于流的解析。