我有一个涉及读取大文件的问题要解决,我对如何处理它有一个大致的了解,但希望看到它可能有更好的方法。
问题如下:我有几个巨大的磁盘文件(64GB
每个)都充满了2.5KB
每个记录(大约25,000,000
记录总数)。除其他字段外,每条记录都有一个时间戳和一个指示时间戳是否有效的isValid标志。当用户输入时间跨度时,我需要返回时间戳在指定范围内的所有记录。
数据的布局是这样的,对于标记为“有效”的所有记录,时间戳单调增加。根本不应考虑无效记录。所以,这就是文件通常的样子(尽管范围要大得多):
a[0] = { Time=11, IsValid = true };
a[1] = { Time=12, IsValid = true };
a[2] = { Time=13, IsValid = true };
a[3] = { Time=401, IsValid = false }; // <-- should be ignored
a[4] = { Time=570, IsValid = false }; // <-- should be ignored
a[5] = { Time=16, IsValid = true };
a[6] = { Time=23, IsValid = true }; // <-- time-to-index offset changed
a[7] = { Time=24, IsValid = true };
a[8] = { Time=25, IsValid = true };
a[9] = { Time=26, IsValid = true };
a[10] = { Time=40, IsValid = true }; // <-- time-to-index offset changed
a[11] = { Time=41, IsValid = true };
a[12] = { Time=700, IsValid = false }; // <-- should be ignored
a[13] = { Time=43, IsValid = true };
如果时间戳和计数器之间的偏移量是恒定的,则查找第一条记录将是一个O(1)
操作(我会简单地跳转到索引)。既然不是,我正在寻找一种不同的方法来(快速)找到这些信息。
一种方法可能是修改后的二进制搜索,但我不完全确定如何处理更大的无效记录块。我想我也可以创建一个“索引”来加快查找速度,但是由于会有很多这样的大文件,并且提取的数据大小会比整个文件小得多,我不想遍历这些文件中的每一个,逐条记录,生成索引。我在想二进制搜索是否也会在构建索引时有所帮助。
更不用说我不确定索引的最佳结构是什么。平衡二叉树?