2

我试图通过 R 中的 ergm 函数运行大量数据。大体上,我的意思是我的网络图对象有 4,300 个顶点和大约 470,000 个总边。协变量 X、Y 和 Z 都是分类数据类型。当我运行这个脚本时,R studio 最终会崩溃,因为模型无法处理这么多信息。我知道使用 nodemix 函数将生成的组合数量;然而,鉴于研究的性质,我的分析要求我使用这个特定的函数。我还应该提到,我已尽可能减少数据以考虑其大小。

我想知道是否有办法通过在幕后修改 ergm 函数,使用 -Inf 来删除任何系数。我可能是错的,但我觉得我的大多数 nodemix 组合都会有 -Inf 系数;因此,我可以删除这些不必要的组合并释放一些 RAM 空间以使该功能完全运行。我不关心任何具有-Inf 的组合。希望这个问题是有道理的。如果您需要任何其他信息,请告诉我。在此先感谢您的帮助。

    ergm_control <- control.ergm(drop= TRUE, MPLE.max.dyad.types=500000)
    ergm.factor.model <- ergm(sna.network ~ edges + 
                               nodemix('Covariate_X', base=1) +
                               nodemix('Covariate_Y', base=1) +
                               nodemix('Covariate_Z', base=1),
                               control=ergm_control)
4

0 回答 0