我正在尝试使用flask-SQLalchemy加载一个像5900行sql创建,插入和更改表到mysql数据库中的大文件。
我正在解析文件并通过分割来分隔每个命令;
这可以按预期工作。
Here是我目前所拥有的。
对于SQL Query执行,我使用的是SQLAlchemy的引擎API。
当我执行查询时,似乎数据库在文件的5400行之后退出其作业,但是应用程序将完整执行记录到第5900行而没有错误。
当我执行创建和单独插入时它也可以工作,所以有没有办法分割批处理执行或使用池或类似的东西,这不会使数据库卡住。
谢谢!