0

有一些员工细分任务会导致需要插入 SQL Azure 的大量记录(大约 2000 条)。记录本身非常小,大约 4 个整数。Azure 辅助角色执行分段任务并将结果行插入到 SQL Azure 表中。队列中可能有多个这样的任务(每个大约有 1000 - 2000 行),因此每个插入都需要非常快地执行。

使用本地计算机对 SQL Azure 进行计时测试花费了大量时间(1000 次插入大约需要 2 分钟)。这可能是由于网络延迟引起的。我假设工人角色的插入应该更快。

但是,由于实体框架不能很好地批量插入,我们正在考虑使用 SQLBulkCopy。如果批量大小为 1000,使用 SQLBulkcopy 会导致查询受到限制吗?有什么推荐的方法吗?

4

1 回答 1

2

Bulk Copy API 应该完美地满足您的目的,并带来非常显着的性能改进。

我已经测试了将批量大小为 2000 的 1000 万条记录插入到 Azure 数据库中,并且从我的本地计算机运行时,没有发生任何限制,每批次的性能约为 10 秒。

于 2012-07-18T17:54:46.310 回答