2

我正在使用 rgdal 包在 R 中处理图像分类脚本。有问题的栅格是一个具有 28 个通道的 PCIDSK 文件:一个训练数据通道、一个验证数据通道和 26 个光谱数据通道。目标是填充一个数据帧,其中包含训练数据通道中不为零的每个像素的值,以及 26 个波段中的相关光谱值。

在 Python/Numpy 中,我可以轻松地将整个图像的所有波段导入多维数组,但是,由于内存限制,R 中的唯一选项似乎是逐块导入此数据,这非常慢:

library(rgdal)

raster = "image.pix"
training_band = 2
validation_band = 1
BlockWidth = 500
BlockHeight = 500

# Get some metadata about the whole raster
myinfo = GDALinfo(raster)
ysize = myinfo[[1]]
xsize = myinfo[[2]]
numbands = myinfo[[3]]


# Iterate through the image in blocks and retrieve the training data
column = 0
training_data = NULL
while(column < xsize){
 if(column + BlockWidth > xsize){
  BlockWidth = xsize - column
 }
 row = 0
 while(row < ysize){
  if(row + BlockHeight > ysize){
   BlockHeight = ysize - row
  }

  # Do stuff here
  myblock = readGDAL(raster, region.dim = c(BlockHeight,BlockWidth), offset = c(row, column), band = c(training_band,3:numbands), silent = TRUE)
  blockdata = matrix(NA, dim(myblock)[1], dim(myblock)[2])
  for(i in 1:(dim(myblock)[2])){
   bandname = paste("myblock", names(myblock)[i], sep="$")
   blockdata[,i]= as.matrix(eval(parse(text=bandname)))
  }
  blockdata = as.data.frame(blockdata)
  blockdata = subset(blockdata, blockdata[,1] > 0)
  if (dim(blockdata)[1] > 0){
   training_data = rbind(training_data, blockdata)
  }

  row = row + BlockHeight
 }
 column = column + BlockWidth
}
remove(blockdata, myblock, BlockHeight, BlockWidth, row, column)

有没有更快/更好的方法来做同样的事情而不会耗尽内存?

收集此训练数据后的下一步是创建分类器(randomForest 包),该分类器也需要大量内存,具体取决于请求的树数。这让我想到了第二个问题,即考虑到训练数据已经占用的内存量,不可能创建一个由 500 棵树组成的森林:

myformula = formula(paste("as.factor(V1) ~ V3:V", dim(training_data)[2], sep=""))
r_tree = randomForest(formula = myformula, data = training_data, ntree = 500, keep.forest=TRUE)

有没有办法分配更多的内存?我错过了什么吗?谢谢...

[编辑] 正如 Jan 所建议的,使用“raster”包要快得多;但是据我所知,就收集训练数据而言,它并不能解决内存问题,因为它最终需要在数据帧中,在内存中:

library(raster)
library(randomForest)

# Set some user variables
fn = "image.pix"
training_band = 2
validation_band = 1

# Get the training data
myraster = stack(fn)
training_class = subset(myraster, training_band)
training_class[training_class == 0] = NA
training_class = Which(training_class != 0, cells=TRUE)
training_data = extract(myraster, training_class)
training_data = as.data.frame(training_data)

所以虽然这要快得多(并且需要更少的代码),但它仍然不能解决没有足够的可用内存来创建分类器的问题......是否有一些我还没有找到的“光栅”包函数可以完成这个? 谢谢...

4

2 回答 2

3

查看光栅包。Raster 包为 Rgdal 提供了一个方便的包装器,无需将其加载到内存中。

http://raster.r-forge.r-project.org/

希望这会有所帮助。

'raster' 包处理基本的空间栅格(网格)数据访问和操作。它定义了栅格类;可以处理非常大的文件(存储在磁盘上);并包括标准栅格功能,例如叠加、聚合和合并。

'raster' 包的目的是为光栅操作和分析提供易于使用的功能。这些包括高级功能,例如叠加、合并、聚合、投影、重采样、距离、多边形到栅格转换。所有这些函数都适用于无法加载到内存中的非常大的栅格数据集。此外,该包还提供了较低级别的功能,例如逐行读取和写入(通过 rgdal 到多种格式),用于构建其他功能。

通过使用 Raster 包,您可以避免在使用 randomForest 之前填满您的内存。

[编辑] 如果您可以在子样本(大小 << n)而不是引导样本(大小为 n)上学习随机森林中的单个树,则使用 randomForest 解决内存问题可能会有所帮助。

于 2010-11-15T16:57:57.010 回答
0

我认为这里的关键是:“一个包含训练数据通道中不为零的每个像素值的数据帧”。如果生成的 data.frame 足够小以保存在内存中,您可以通过仅读取该波段来确定这一点,然后仅修剪那些非零值,然后尝试创建一个具有那么多行和总数的 data.frame你想要的列。

你能运行这个吗?

 training_band = 2 

 df = readGDAL("image.pix",  band = training_band) 
 df = as.data.frame(df[!df[,1] == 0, ])

然后,您可以通过分别读取每个波段并修剪训练波段来一一填充 data.frame 的列。

如果那个 data.frame 太大,那么你就卡住了——我不知道 randomForest 是否可以使用“ff”中的内存映射数据对象,但它可能值得一试。

编辑:一些示例代码,并注意 raster 为您提供内存映射访问,但问题是 randomForest 是否可以使用内存映射数据结构。您可能只能读取您需要的数据,一次一个波段 - 您可能希望首先尝试构建完整的 data.frame,而不是附加列。

此外,如果您可以从一开始就生成完整的 data.frame,那么您就会知道它是否应该工作。通过 rbind() 处理代码,您需要越来越大的连续内存块,这可能是可以避免的。

于 2010-11-15T22:23:47.983 回答