我试图将一个 10GB 的 CSV 文件上传到 WSO2 ML,但我做不到,它给了我错误,我按照这个链接在 WSO2 ML 中更改了我的数据集的大小限制(https://docs.wso2.com /display/ML100/FAQ#FAQ-Isthereafilesizelimittomydataset?Isthereafilesizelimittomydataset ?)
我在具有以下特征的 PC 中运行 wso2 ML: - 50GB RAM - 8 核
谢谢
我试图将一个 10GB 的 CSV 文件上传到 WSO2 ML,但我做不到,它给了我错误,我按照这个链接在 WSO2 ML 中更改了我的数据集的大小限制(https://docs.wso2.com /display/ML100/FAQ#FAQ-Isthereafilesizelimittomydataset?Isthereafilesizelimittomydataset ?)
我在具有以下特征的 PC 中运行 wso2 ML: - 50GB RAM - 8 核
谢谢
对于那些想要使用 HDP (Hortonworks) 作为 HDFS 解决方案的一部分的人,通过 IPC 使用 NameNode 端口 8020 为 WSO2 ML 加载大型数据集,即 hdfs://hostname:8020/samples/data/wdbcSample.csv ,您可能还需要首先使用以下 Java 客户端将此类数据文件摄取到 HDFS:
public static void main(String[] args) throws Exception {
Configuration configuration = new Configuration();
FileSystem hdfs = FileSystem.get(new URI("hdfs://hostname:8020"), configuration);
Path dstPath = new Path("hdfs://hostname:8020/samples/data/wdbcSample.csv");
if (hdfs.exists(dstPath)) {
hdfs.delete(dstPath, true);
} else {
System.out.println("No such destination ...");
}
Path srcPath = new Path("wdbcSample.csv"); // a local file path on the client side
try {
hdfs.copyFromLocalFile(srcPath, dstPath);
System.out.println("Done successfully ...");
} catch (Exception ex) {
ex.printStackTrace();
} finally {
hdfs.close();
}
}
在将数据集上传到 WSO2 机器学习器时,我们提供了三个选项。
-Dog.apache.cxf.io.CachedOutputStream.Threshold
选项来增加限制wso2server.dat
。我们已经用一个 1GB 的文件测试了这个功能。但是,对于大文件,我们不建议使用此选项。此功能的主要用例是允许用户使用小数据集快速尝试一些机器学习算法。 由于您正在使用大型数据集,我们建议您使用以下两种方法将数据集上传到 WSO2 ML 服务器。
使用 Hadoop 文件系统 (HDFS) 上传数据。我们在文档 [1] 中详细描述了如何在 WSO2 ML 中使用 HDFS 文件。
如果您已启动并运行 WSO2 DAS 实例,通过将 WSO2 ML 与 WSO2 DAS 集成,您可以在 WSO2 ML 的“创建数据集”向导中轻松指出 DAS 表作为您的源类型。有关将 WSO2 ML 与 WSO2 DAS 集成的更多详细信息,请参阅 [2]。
如果您需要有关此问题的更多帮助,请告诉我。
[1]。https://docs.wso2.com/display/ML100/HDFS+Support
[2]。https://docs.wso2.com/display/ML110/Integration+with+WSO2+Data+Analytics+Server