我正在尝试使用Akubra-HDFS作为Fedora 公共服务器的低级存储。我按照类似于安装 IRODS的过程来设置 Akubra-HDFS。fedora 服务器使用 Hadoop(版本 1.0.4)作为其存储。但是,我在将 Akubra-HDFS 库与 Cloudera CDH4 / Apache Hadoop 2.0.3alpha - 高可用性 (HA) 发行版一起使用时遇到了麻烦。我想分享我的发现。
问问题
242 次
1 回答
1
由于 AKubra-HDFS 是一个新的实验库,因此互联网上没有太多关于它的资源。我必须通过尝试不同的依赖 jar 来找出解决方案。
按照https://github.com/fasseg/akubra-hdfs上的说明进行操作
将下面的 jar 文件从 CDH4(安装文件夹)复制到 fedora lib 文件夹,而不是为 Hadoop 1.xx 列出的 jar。
- commons-cli-1.2.jar
- commons-configuration-1.6.jar
- commons-lang-2.4.jar
- google-collections-1.0-rc2.jar(必须从 fedora lib 文件夹中删除)。
- guava-11.0.2.jar(这是 google-collections 的较新版本)
- hadoop-auth-2.0.0-cdh4.1.3.jar
- hadoop-common-2.0.0-cdh4.1.3.jar
- hadoop-hdfs-2.0.0-cdh4.1.3.jar
- protobuf-java-2.4.0a.jar
于 2013-02-26T15:18:42.843 回答