0

我是空间统计的新手,我正在尝试为 R 中美国的所有人口普查区域创建一个空间权重矩阵。大约有 74000 个区域。

基于美国人口普查老虎文件,我创建了所有大片的 shapefile,然后做了(使用spdep包):

#Create adjacency matrix
am = poly2nb(us)
is.symmetric.nb(am)

这很好用,虽然 am 很大。

下一个:

am = nb2mat(am, style="B",zero.policy=T)

这给了我这个错误:

Error: cannot allocate vector of size 40.9 Gb

显然我的笔记本电脑无法处理 40.9 Gb 的内存。我尝试在 AWS EC2 云上执行此操作,但要获得那么多内存,我需要获得一个非常大的实例,我想避免这种情况,因为我是云计算的新手,宁愿在免费的 T2 中玩。微型沙箱(最多 1 GiB 的内存),直到我准备好在更大的机器上花一些钱。如果我可以将权重矩阵转换为稀疏矩阵,我想我可以处理它,但我不知道该怎么做。我试着做这样的事情:

Wmat<-Matrix(nb2mat(am, style="B",zero.policy=T),sparse=TRUE)

但在创建稀疏矩阵之前,它仍然需要所有内存来执行 nb2mat 命令。

有什么解决办法吗?

4

1 回答 1

0

当然有点晚了。但我想我只是想出了一个解决方案。我有一个 71k*71k 矩阵的类似情况。

我刚刚重新设计了 nb2mat 函数以使用 bigmemory 库中的 big.matrix。我们需要定义两个新函数:

    my_nb2mat = function (neighbours, glist = NULL, style = "W", zero.policy = NULL) 
    {
      if (is.null(zero.policy)) 
        zero.policy <- get("zeroPolicy", envir = .spdepOptions)
      stopifnot(is.logical(zero.policy))
      if (!inherits(neighbours, "nb")) 
        stop("Not a neighbours list")
      listw <- nb2listw(neighbours, glist = glist, style = style, 
                        zero.policy = zero.policy)
      res <- my_listw2mat(listw)
      attr(res, "call") <- match.call()
      res
    }

my_listw2mat = function (listw) 
    {
      require(bigmemory)
      n <- length(listw$neighbours)
      if (n < 1) 
        stop("non-positive number of entities")
      cardnb <- card(listw$neighbours)
      if (any(is.na(unlist(listw$weights)))) 
        stop("NAs in general weights list")
      #res <- matrix(0, nrow = n, ncol = n)
      res <- big.matrix(n, n, type='double', init=NULL)
      options(bigmemory.allow.dimnames=TRUE)

      for (i in 1:n) if (cardnb[i] > 0) 
        res[i, listw$neighbours[[i]]] <- listw$weights[[i]]
      if (!is.null(attr(listw, "region.id"))) 
        row.names(res) <- attr(listw, "region.id")
      res
    }

在此处调用新的 my_nb2mat 函数:

a=my_nb2mat(neighbours = out, style='W',zero.policy =F )

注意:对我来说,bigmemory 库似乎只适用于 R\R-2.15.3。

于 2015-07-06T18:48:05.973 回答