我正在使用 Random Forest Regressor python 的 scikit-learn 模块来预测一些值。我使用 joblib.dump 来保存模型。共有 24 个 joblib.dump 文件,每个文件大小为 45 MB(所有文件的总和 = 931mb)。我的问题是:
我想在一个程序中加载所有这 24 个文件来预测 24 个值 - 但我做不到。它给出了一个 MemoryError。如何在一个程序中加载所有 24 个 joblib 文件而不会出现任何错误?
提前致谢...
我正在使用 Random Forest Regressor python 的 scikit-learn 模块来预测一些值。我使用 joblib.dump 来保存模型。共有 24 个 joblib.dump 文件,每个文件大小为 45 MB(所有文件的总和 = 931mb)。我的问题是:
我想在一个程序中加载所有这 24 个文件来预测 24 个值 - 但我做不到。它给出了一个 MemoryError。如何在一个程序中加载所有 24 个 joblib 文件而不会出现任何错误?
提前致谢...
选项很少,具体取决于您内存不足的确切位置。
例如:
predictions = []
for regressor_file in all_regressors:
regressor = joblib.load(regressor_file)
predictions.append(regressor.predict(X))
(可能不适用于您的情况,但这个问题很常见)。加载大量输入数据时,您可能会耗尽内存。要解决此问题 - 您可以拆分输入数据并在子批次上运行预测。当我们从本地运行预测转移到 EC2 时,这对我们很有帮助。尝试在较小的输入数据集上运行您的代码,以测试这是否有帮助。
您可能希望优化 RFR 的参数。您可能会发现使用较浅的树或较少数量的树(或两者)可以获得相同的预测能力。构建一个不必要的大的随机森林非常容易。当然,这是特定于问题的。我必须减少树的数量并使树更小,以使模型在生产中有效运行。就我而言,AUC 在优化之前/之后是相同的。教程中有时会省略模型调整的最后一步。