我正在 opencl 中开发一个应用程序,其基本目标是在 GPU 平台上实现数据挖掘算法。我想使用 Hadoop 分布式文件系统并想在多个节点上执行应用程序。我正在使用 MapReduce 框架,我将基本算法分为两部分,即“Map”和“Reduce”。
我以前从未在 hadoop 中工作过,所以我有一些问题:
- 我是否已经在 java 中编写了我的应用程序以使用 Hadoop 和 Mapeduce 框架?
- 我在 opencl 中为 map 和 reduce 编写了内核函数。是否可以将 HDFS 文件系统用于非 Java GPU 计算应用程序?(注意:我不想使用 JavaCL 或 Aparapi)