我有一个NodeJS HTTP服务器,显示一个JSON文件,每秒更新一次。样本数据:
{
"MainText": [{
"field1": "text",
"field2": "text",
"field3": 1234
},
{
"field1": "text",
"field2": "text",
"field3": 1234
},
{
"field1": "text",
"field2": "text",
"field3": 1234
}
]
}
通常在一段时间后,此JSON中此类条目的数量会增加到大约200k或更多。
我必须将整个JSON导入到pandas数据框中,并且我正在使用以下内容:
df = pd.DataFrame(json.loads(requests.get(url).text))
通常这需要大约0.3秒。但是对于我来说没有任何理由,在几次请求之后,它开始接近4秒(几乎)相同的固定大小的JSON。发出请求时,CPU或RAM使用率没有变化。
如果我重新启动NodeJS服务器,问题会暂时解决,但稍后会再次出现。
我是否需要关闭与HTTP服务器的连接?我希望180k行文本对于从服务器快速获取的请求不是太多了吗?
我应该寻找一种更有效的方法将JSON数据加载到pandas数据帧吗?