我正在尝试使用flask-SQLalchemy将一个巨大的文件(如5900行sql创建、插入和更改表)加载到mysql数据库中。
我正在解析文件并通过拆分来分隔每个命令;
这按预期工作。
这是我到目前为止所拥有的。
对于 SQL 查询执行,我使用 SQLAlchemy 的引擎 API。
当我执行查询时,数据库似乎在文件的 5400 行之后退出了它的工作,但应用程序记录了完整的执行,直到第 5900 行没有错误。
当我分别创建和插入时,它也可以工作,所以有没有办法拆分批处理执行或使用池或类似的东西,这不会使数据库卡住。
谢谢!