我正在尝试使用spyder中的ibm_db.execute_many()将超过200,000条记录的数据加载到DB2数据库中。在两次执行之间,python停止工作并给出错误“内核死亡,重新启动”。我认为错误是由于内存和CPU使用率导致程序停止执行而导致的。我没有增加内存的选项,但是可以选择处理。
由于将大文件加载到DB2 DB中,是否有任何方法可以解决此错误。
如果不是,我如何将数据分成多个部分(3-4个部分)并逐份加载。
tuple_of_tuples = tuple([tuple(x) for x in df.values])
sql = "INSERT INTO DATABSE.TABLENAME (COL1,COL2,COL3,COL4,COL5,COL6,COL7,COL8,COL9,COL10,COL11,COL12) VALUES(?,?,?,?,?,?,?,?,?,?,?,?)"
cnn = ibm_db.connect("DATABASE=DBNAME;HOSTNAME=IPADDRESS;PORT=50000;PROTOCOL=TCPIP;SECURITY=SSL;SSLServerCertificate=************;UID=UN;PWD=*********;","","")
stmt = ibm_db.prepare(cnn, sql)
ibm_db.execute_many(stmt, tuple_of_tuples)