我注意到大约 150 万个输入值发生了一个有趣的性能变化。有人可以给我一个很好的解释为什么会这样吗?
表很简单。它由 (bigint, bigint, bigint, bool, varbinary(max)) 我在前三个 bigint 上有一个 pk 聚集索引。我只插入布尔值“true”作为数据 varbinary(max)。
从那时起,性能似乎相当稳定。
图例:Y(时间以毫秒为单位)| X(插入 10K)
我也对图表上的恒定相对较小(有时非常大)的峰值感到好奇。
峰值之前的实际执行计划。
图例:
我要插入的表: TSMDataTable
1. BigInt DataNodeID - fk
2. BigInt TS - 主时间戳
3. BigInt CTS - 修改时间戳
4. 位:ICT - 记录最后插入的值(提高读取性能)
5. 数据:数据
布尔值当前时间戳保持
环境
这是当地的。
它不共享任何资源。
它是固定大小的数据库(足够所以它不会扩展)。
(计算机,4 核,8GB,7200rps,Win 7)。
(Sql Server 2008 R2 DC,处理器关联(核心 1,2),3GB,)