深度优先搜索是搜索文件系统的一种可怕方式——实际上,使用 DFS 可能需要很长时间才能找到可能位于非常接近根目录的目录下的文件,因为 DFS 会被另一个深度分散注意力,不相关的目录层次结构。
然而,它的资源需求非常好——它需要保持打开的文件句柄的数量只与层次结构的深度成正比,而不是它的大小。
广度优先搜索是显而易见的解决方案——它非常快。
(上次我测量时,它与我系统上的 DFS 所用的时间大致相同,大约 8 秒。)
然而 BFS 有其自身的问题—— BFS 需要保持打开大量目录句柄,可能数百万。(在我的系统上,大约有 100,000 个句柄,这个数字高得离谱。它很容易更多。)
这会导致几个问题:
保持打开这么多句柄不仅会消耗内存(无论如何相对便宜),还会消耗许多其他类型的资源,例如虚拟文件系统(网络、挂载目录等)内的文件句柄,以及可能其他有限的内核-级资源。
它还给用户带来了其他实际问题:例如,一直处于打开状态的虚拟目录不再可关闭!这意味着,例如,用户可能无法关闭程序、弹出某些设备或关闭某种外部连接。这种方法可能会出现各种问题。
那么,似乎迭代深化就是解决方案。
问题?在实践中非常缓慢。我的麻烦是大型目录(例如Windows中的WinSxS)会为每个深度级别
重新枚举,即使它们不需要。上次我尝试这个时,迭代加深比我系统上的 DFS 慢了约 15 倍。所以 8 秒的搜索大约需要 120 秒左右,这是不可接受的。
当然,试图跟踪你不应该打开的目录(也许是因为你注意到你不再需要打开它们)通过发现我们在 BFS 中遇到的所有资源问题,首先破坏了使用迭代深化的目的.
所以,这个问题很简单:
如果您正在搜索一个您不熟悉的文件系统,您应该如何着手在速度和可用性之间取得可接受的平衡?有比 BFS 更好的选择吗?