我试图将大熊猫数据帧保存为JSON
[
我用这些方式
df.to_pickle("dfSentsOB.pkl")
不幸的是,我遇到了这个错误,有人知道原因是什么吗?
但它说:
no default __reduce__ due to non-trivial __cinit__
也是这样:
df.to_json(orient='table')
出现此错误
Maximum recursion level reached
我只想保存数据以便再次加载,在我看来,问题与数据的大小以及熊猫的设置有关,因为设置数据之前已经保存了。
我在熊猫数据框中使用此设置来查看所有单词:
options = {"compact": True, "bg": "#09a3d5",
"color": "white", "font": "Source Sans Pro","collapse_phrases":False}
pd.set_option('display.max_colwidth', -1)
pd.set_option('max_colwidth', 260)
如果您知道其他方式(csv除外),请告诉我?
答案 0 :(得分:0)
tnx消息,我尝试过这种方式;将DF转换为Dict,然后如下所述进行腌制
df=df.to_dict()
mpu.io.write('dfObs.pickle', df)
again the same error!
由于不重要的 cinit –
而没有默认 reduce
答案 1 :(得分:0)
此代码可以读取csv并提供JSON对象。欲了解更多details。您可以使用python def main():
f = open("rules.txt", "r")
if f.mode == "r":
contents = f.read()
print(contents)
if __name__ == "__main__":
main()
和csv
库,然后就不需要使用其他任何库,例如json
或pandas
。
mpu