考虑以下 Python 中的代码,使用 psycopg2cursor
对象(为清楚起见,更改或省略了一些列名):
filename='data.csv'
file_columns=('id', 'node_id', 'segment_id', 'elevated',
'approximation', 'the_geom', 'azimuth')
self._cur.copy_from(file=open(filename),
table=self.new_table_name, columns=file_columns)
- 该数据库位于快速 LAN 上的远程计算机上。
- 使用
\COPY
from bash 的速度非常快,即使对于大型(约 1,000,000 行)文件也是如此。
这段代码对于 5,000 行来说是超快的,但是当data.csv
超过 10,000 行时,程序会完全冻结。
任何想法\解决方案?
亚当