Python在spyder中停止工作“内核死亡,重新启动”

时间:2019-08-08 14:29:25

标签: python pandas

我正在尝试使用spyder中的ibm_db.execute_many()将超过200,000条记录的数据加载到DB2数据库中。在两次执行之间,python停止工作并给出错误“内核死亡,重新启动”。我认为错误是由于内存和CPU使用率导致程序停止执行而导致的。我没有增加内存的选项,但是可以选择处理。

  1. 由于将大文件加载到DB2 DB中,是否有任何方法可以解决此错误。

  2. 如果不是,我如何将数据分成多个部分(3-4个部分)并逐份加载。

    tuple_of_tuples = tuple([tuple(x) for x in df.values])

    sql = "INSERT INTO DATABSE.TABLENAME (COL1,COL2,COL3,COL4,COL5,COL6,COL7,COL8,COL9,COL10,COL11,COL12) VALUES(?,?,?,?,?,?,?,?,?,?,?,?)"

    cnn = ibm_db.connect("DATABASE=DBNAME;HOSTNAME=IPADDRESS;PORT=50000;PROTOCOL=TCPIP;SECURITY=SSL;SSLServerCertificate=************;UID=UN;PWD=*********;","","")

    stmt = ibm_db.prepare(cnn, sql)

    ibm_db.execute_many(stmt, tuple_of_tuples)

0 个答案:

没有答案
相关问题