我正在开发一个需要始终保持高效的低延迟应用程序。
我需要根据字符串查找一些索引,所以我使用的是 c++ unordered_map。约束: - 仅插入和查找,没有删除 - 键是字符串,值是 int - 预计将不超过 100 万个条目添加到 unordered_map
我将 unordered_map 保留设置为 100 万,这很好还是我应该保留比预期条目多 % 的订单以避免重新散列?我可以将其设置为 100 万,还是应该设置为接近 100 万或 2 次方的大素数。
我在 c++ std lib 中使用默认字符串哈希函数,它恰好是 murmur2。我的键介于 - 25 到 50 个字符之间,并且都是包含数字、大写英文字母和 _ 字符的唯一键。这个散列函数是否足以均匀分布密钥,还是我需要为 unordered_map 提供更好的散列函数?
unordered_map 是否会为 100 万个键、值对以及大小为 100 万的数组分配空间,当我调用保留或保留时,仅创建该大小的数组并在插入时动态分配键、值对?
插入时堆上的键、值对的动态分配会有多大的阻力?特别是因为这是一个包含许多条目的大哈希表。
出于性能原因,实现我自己的哈希表并在堆栈上或初始化期间为 100 万个条目预分配内存是个好主意,或者上述 unordered_map 的优化是否足够接近?
有没有办法提前为 unorderd_map 中的预期条目数分配内存以避免插入时的动态分配?