我尝试了 model.save(sc, path) 它给了我错误:TypeError: save() 需要 2 个位置参数,但给出了 3 个。这里 sc 是 sparkcontext [sc = SparkContext()] 我尝试在签名中不使用 sc,但出现此错误:调用 o159.save 时发生错误。java.lang.RuntimeException: java.lang.ClassNotFoundException: Class org.apache.hadoop.mapred.DirectOutputCommitter not found 我尝试了多种使用boto3 pickle joblib的方法,但我没有成功找到可行的解决方案。我正在创建一个 KMeans 聚类模型。我需要一个胶水作业来适应并将模型保存在 S3 中,然后再进行另一个胶水作业来通过加载保存的模型来进行预测。我第一次这样做,任何帮助将不胜感激。
问问题
62 次