问题标签 [hipi]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
git - GitHub:权限被拒绝(公钥)。致命:从 GitHub 克隆目录时,远程端意外挂断
我正在尝试使用命令 'git clone git@github.com:uvagfx/hipi.git' 将 hipi 目录从 GitHub 克隆到我的 Ubuntu 系统,但它显示错误,因为克隆到 'hipi'... 权限被拒绝(公钥) . 致命:远端意外挂断。如何解决这个错误?
opencv - 错误:找不到符号 CV_32FC3
我正在使用 HIPI 进行一些图像处理!有一次,当我定义一个 opencv Mat 时,我在代码中使用了变量 CV_32FC3。
不幸的是,我收到一条错误消息,提示找不到该符号!
附言:
- 我使用集成到 HIPI 的 bytedeco 进行图像处理
- 在 HIPI 的 build.gradle 文件中,我有:
- 在我的代码中,我导入了 opencv_core :
谁能告诉我怎么了?还是我忘记了什么?
我得到的错误堆栈跟踪是:
apache-spark - 错误:没有为 hadoopFile(String,Class) 找到合适的方法,班级,班级)
我正在使用带有 spark 2.0.2 的 HIPI 进行图像处理。
我想在 RDD 的 HDFS 上加载存储在 HipiImageBundle(.hib) 中的图像。
所以我使用 hadoopfile() 方法来创建一个 RDD,如下面的代码所示:
然后,我收到此错误:
错误:没有为 hadoopFile(String,Class,Class,Class) 找到合适的方法
你知道我该如何解决这个问题吗?
PS:我使用:
- 爪哇
- 火花 2.0.2
java - 使用 spark 和 hipi 进行图像处理(hadoop 图像处理接口)
我正在使用带有 Hipi 和 bytedeco (opencv3.2.0) 的 Spark 来处理图像!
在我的 spark 工作中,我尝试将数据加载到 PairRDD 中,然后处理这些图像(计算特征)但是当我尝试将 hipi 图像包(.hib)加载为FloatImages时出现错误!
代码 :
错误 :
错误:类 JavaSparkContext 中的方法 newAPIHadoopFile 不能应用于给定类型;JavaPairRDD floatimages = jsc.newAPIHadoopFile("hdfs://cluster-1-m/user/ibi/sampleimages.hib",HibInputFormat.class,HipiImageHeader.class,FloatImage.class, new Configuration()); ^ 必需:String,Class,Class,Class,Configuration 找到:String,Class,Class,Class,Configuration 原因:推断类型不符合等式约束 推断:HipiImage 等式约束:HipiImage,FloatImage where F ,K,V 是类型变量: F 扩展方法 newAPIHadoopFile(String,Class,Class,Class,Configuration) 中声明的 InputFormat K 扩展方法 newAPIHadoopFile(String,Class,Class,Class,
当我将它们加载为HipiImages时,我没有收到此错误!但我不知道如何从 hipi Image 中获取数据,因为此类中没有 getData() 和 getPixelArray() 方法。
你们谁能告诉我如何从这个 HipiImage 获取数据?或者对于已经将 Spark 与 HIPI 和 bytedeco api 一起使用的人,他们是如何做到的?
java - 在运行第一个 HIPI 程序时,我收到 JSON 错误。我应该在哪里添加它以及如何添加?
输入FS:
输出HIB:
xml - 将 ant 脚本(xml)转换为 gradle 脚本
我需要帮助将 Ant 脚本转换为 Gradle 脚本。这是 ant 脚本的代码:来自http://dinesh-malav.blogspot.my/2015/05/image-processing-using-opencv-on-hadoop.html
我需要从上面的 ant 脚本转换的 gradle 脚本添加到下面的 gradle 脚本中:
有人知道该怎么做吗?谢谢你。
opencv - Hadoop 无法加载 opencv 本机库
我正在尝试在 Hadoop 中运行图像处理示例。
Hadoop版本: Hadoop 2.0.0-cdh4.2.1
Hipi 版本: hipi-2.1.0
OpenCV 版本: opencv-2.4.11
opencv-2411.jar 和 hipi-2.1.0.jar 在 hadoop-classpath
我已将“libopencv_java2411.so”放在目录 /etc/opencv/lib 中。在 /usr/lib/hadoop/libexec/hadoop-config.sh 文件中设置 JAVA_LIBRARY_PATH,指向 OpenCV 原生库,如下所示:
JAVA_LIBRARY_PATH=${JAVA_LIBRARY_PATH}:/etc/opencv/lib
当我提交作业时,我收到以下错误消息。
为什么它无法加载本机库?请帮忙。