如果您将大型数据集带入 R 并且它太大而无法存储在 RAM 中,那么通过各种 Revolution R 模块之类的东西可以获得相当多的支持。但是有什么方法可以处理在 R中创建的数据集太大而无法存储在 RAM 中,而不是简单地(手动)将创建步骤分成一系列 RAM 大小的块,将该块写入磁盘,清除它,并继续?
例如,只是做一个大型模拟,或者使用类似 SurvSplit() 的东西来获取一个生存时间从 1 到 N 的单个观察并将其分解为 N 个单独的观察?
如果您将大型数据集带入 R 并且它太大而无法存储在 RAM 中,那么通过各种 Revolution R 模块之类的东西可以获得相当多的支持。但是有什么方法可以处理在 R中创建的数据集太大而无法存储在 RAM 中,而不是简单地(手动)将创建步骤分成一系列 RAM 大小的块,将该块写入磁盘,清除它,并继续?
例如,只是做一个大型模拟,或者使用类似 SurvSplit() 的东西来获取一个生存时间从 1 到 N 的单个观察并将其分解为 N 个单独的观察?