我正在将三个大型二进制文件(每个 c.180Mb)读入 std::vector 如下:
m_ifStream.open("myfile.dat", std::ios::binary | std::ios::in);
if (m_ifStream)
{
//Obtain input stream length
m_ifStream.seekg (0, ios::end);
streamLength = (size_t)(m_ifStream.tellg());
m_ifStream.seekg (0, ios::beg);
//Reserve doesn't work around the problem, may be more efficient though...
//m_buffer = new vector<unsigned char>();
//m_buffer->reserve(streamLength);
//Next line sometimes results in bad_alloc when reading a large file
m_buffer = new vector<unsigned char>((std::istreambuf_iterator<char>(m_ifStream)), (std::istreambuf_iterator<char>()));
}
填充向量的调用失败,引发“错误分配”异常。
读取第一个文件时填充有时会失败;在其他时候,它在第二次或第三次失败。我正在使用 Visual Studio 2010 并将我的代码编译为 32 位,它应该能够寻址高达 2Gb。我在一台 16Gb RAM 的机器上运行,至少有 10Gb 可用,所以可用内存不足不是问题。该错误发生在调试和发布配置中。
预先分配内存reserve
并没有帮助。
向量的max_size
属性返回 2^32,因此它似乎不是容器中的限制。
该代码适用于大量合并大小> 180Mb 的较小文件,这使我认为我的代码达到了边界。
是否有一种可接受的方式从大型输入文件中填充向量?我想避免遍历文件中的每个字节,并认为 usingistreambuf_iterator
会针对这种操作进行优化。