我有以下格式的JSON数据
{"createdAt": "2013-06-02T00:00:00-08:00", "sessionId": "4982b321-1a24-4295-9fce-c106362218ca", "user": 86157463, "type": "Play", "payload": {"itemId": "15869e7", "marker": 604}, "userAgent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_1) AppleWebKit/535.1 (KHTML, like Gecko) Chrome/14.0.835.202 Safari/535.1", "refId": "b7b4d324", "auth": "38746efc:a1681031"}
{"createdAt": "2013-06-02T00:00:00-08:00", "type": "Login", "user": 32850778, "sessionId": "a0e125a3-4e52-42a7-b35f-c9382a8a0e9b", "userAgent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10.5; rv:7.0.1) Gecko/20100101 Firefox/7.0.1", "refId": "dd4d56c5", "auth": "69646ac4:a7a75b53"}
{"createdAt": "2013-06-02T00:00:24-08:00", "sessionId": "db7d0113-b688-4737-b3b9-5da92e3de23a", "user": 95035757, "type": "Recommendations", "payload": {"recommendedItems": ["10611", "9722e23", "31396", "28828", "20662", "17342", "21070", "28415", "18273", "27930", "35266", "28895", "11108", "12121", "16045", "12203", "11423", "13363e27", "21304", "18724e1", "38111e66", "9232", "36851e45", "31672", "14502"]}, "userAgent": "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/535.19 (KHTML, like Gecko) Chrome/18.0.1025.142 Safari/535.19", "refId": "e94bc09f", "auth": "699d7b63:cec0d4e1"}
正如你所看到的,每个记录在不同的排序中都有不同的字段。当我使用GSON解析上面的代码时,我只得到第一条记录的结果。我使用下面的代码
BufferedReader br = new BufferedReader( new FileReader("C:/Users/inhmadala/Desktop/SampleCCP.json"));
Gson gson = new GsonBuilder().create();
JsonReader reader = new JsonReader(new StringReader(br.readLine()));
reader.setLenient(true);
//convert the json string back to object
//JsonReader.setLenient(true);
DataObject obj = gson.fromJson(reader, DataObject.class);
有人可以告诉我这里有什么问题。
答案 0 :(得分:1)
您的数据文件有三个对象。基于文档,fromJson方法序列化单个对象,这就是为什么你只获得一个对象。
一种替代方法是更改数据文件,使其成为单个有效的JSON对象,但将该对象设为包含所有会话对象的数组
[
{createdAt...}
,
{createdAt...}
,
{createdAt...}
]
否则,有必要使用一些非JSON逻辑(基于空白行分割/修剪文本等)预处理文件,并在循环中调用fromJson,对表示对象的每个文本块调用一次。
答案 1 :(得分:0)
我会创建一个包含来自您的源的所有可能字段的类。这可以向您保证您始终可以解析JSON字符串。然后,您可以检查填写了哪些字段。此外,对JSON字符串的字段排序对于解析器来说不是问题。
当然,要做到这一点,你应该有一定数量的可能性,但从你发布的例子来看,这似乎是你的情况。