更新
最好阅读以下文章:数据导入。
作为pg-promise的作者,我不得不最终为这个问题提供正确的答案,因为之前发表的那个并没有真正做到公正。
为了插入大量/无限数量的记录,您的方法应该基于方法sequence,这在任务和事务中可用。
var cs = new pgp.helpers.ColumnSet(['col_a', 'col_b'], {table: 'tableName'});
// returns a promise with the next array of data objects,
// while there is data, or an empty array when no more data left
function getData(index) {
if (/*still have data for the index*/) {
// - resolve with the next array of data
} else {
// - resolve with an empty array, if no more data left
// - reject, if something went wrong
}
}
function source(index) {
var t = this;
return getData(index)
.then(data => {
if (data.length) {
// while there is still data, insert the next bunch:
var insert = pgp.helpers.insert(data, cs);
return t.none(insert);
}
// returning nothing/undefined ends the sequence
});
}
db.tx(t => t.sequence(source))
.then(data => {
// success
})
.catch(error => {
// error
});
从性能和负载限制的角度来看,这是将大量行插入数据库的最佳方法。
您所要做的就是getData
根据您的应用程序的逻辑实现您的功能,即您的大数据来自哪里,基于index
序列,一次返回大约 1,000 - 10,000 个对象,具体取决于对象的大小和数据可用性。
另请参阅一些 API 示例:
相关问题:具有大量查询的 node-postgres。
如果您需要获取所有插入记录的生成 id-s,您可以将两行更改如下:
// return t.none(insert);
return t.map(insert + 'RETURNING id', [], a => +a.id);
和
// db.tx(t => t.sequence(source))
db.tx(t => t.sequence(source, {track: true}))
请小心,因为在内存中保留过多的记录 ID 会导致过载。