保存大熊猫数据框以泡菜或json的问题?

时间:2019-07-22 09:05:05

标签: json pandas pickle

我试图将大熊猫数据帧保存为JSON

[data[1]

我用这些方式

df.to_pickle("dfSentsOB.pkl")

不幸的是,我遇到了这个错误,有人知道原因是什么吗?

但它说:

no default __reduce__ due to non-trivial __cinit__

也是这样:


df.to_json(orient='table')

出现此错误

Maximum recursion level reached

我只想保存数据以便再次加载,在我看来,问题与数据的大小以及熊猫的设置有关,因为设置数据之前已经保存了。

我在熊猫数据框中使用此设置来查看所有单词:

options = {"compact": True, "bg": "#09a3d5",
           "color": "white", "font": "Source Sans Pro","collapse_phrases":False}
pd.set_option('display.max_colwidth', -1)
pd.set_option('max_colwidth', 260)

如果您知道其他方式(csv除外),请告诉我?

2 个答案:

答案 0 :(得分:0)

tnx消息,我尝试过这种方式;将DF转换为Dict,然后如下所述进行腌制

df=df.to_dict() 
mpu.io.write('dfObs.pickle', df)
again the same error!

由于不重要的 cinit

而没有默认 reduce

答案 1 :(得分:0)

此代码可以读取csv并提供JSON对象。欲了解更多details。您可以使用python def main(): f = open("rules.txt", "r") if f.mode == "r": contents = f.read() print(contents) if __name__ == "__main__": main() csv库,然后就不需要使用其他任何库,例如jsonpandas

mpu