问题标签 [mapr]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
rest - Hbase REST 没有重新调整 MapR DB 的输出
我正在尝试使用 Hbase REST API 查询 Mapr 表。我开始使用 hbase 休息服务./hbase-daemon.sh
并编写了一个小程序来查询我的表,但它似乎不起作用。但是当我使用 curl 工具从 MapR 表中获取数据时,它会给我正确的输出。
这是我正在使用的 java 代码:
这是返回正确输出的 curl 命令。
不知道这里有什么问题?任何猜测,任何人?
提前致谢。
unix - 使用 SCP 将文件从 Windows 桌面移动到 vmware 上的 hadoop 沙箱
我认为这很简单,但我非常感谢您的帮助。我的 Windows 桌面“RECEIPTS_LAB.zip”上有一个 zip 文件,我在 vmware 上运行 hadoop 沙箱。沙箱是我使用 mapr 注册的培训课程的一部分,但我是初学者,不知道如何将 zip 文件从 Windows 移动到沙箱中的目录“/user/user01/3”
手册使用以下代码
scp RECEIPTS_LAB.zip user01@node-ip:/user/user01/3
node-ip 是我启动沙箱时得到的 IP 地址,假设它是 192.168.88.128
当我编写以下命令时: scp RECEIPTS_LAB.zip user01@192.168.88.128:/user/user01/3
我得到的错误是:“RECEIPTS_LAB.zip:没有这样的文件或目录”
请帮助我理解我应该怎么做,因为我已经尝试了很多次来修改语法,但我仍然得到同样的错误
java - 如何在旧的 hadoop api 的 reduce 中获取当前配置
在新的 Hadoop api 中,我可以从context
.
但是现在我使用的是旧的 api,如何在旧的 map/reduce 的 reduce 中获取当前配置?
scala - Spark使用过滤条件Scala在另一个RDD上迭代RDD
我想用一些额外的过滤条件用小 RDD 迭代一个 BIG RDD。下面的代码工作正常,但该过程仅在 Driver 和 Not spread-ed 跨节点的情况下运行。所以请建议任何其他方法?
谢谢,马杜
scala - java.io.InvalidClassException: scala.reflect.ClassTag$$anon$1; 本地类不兼容:: Spark
我在计算文件行时遇到异常:实际上,如果我在本地模式下执行 shell,代码工作正常:但是如果我们尝试使用 Yarn-client 模式的 shell - 下面的异常堆栈将返回。我已经针对同样的问题进行了一些调查。有些人认为这是不同的 JVM 兼容性问题。这可能是真的,因为在使用 JDK6 的其他环境中,它在本地和 Yarn-Client 模式下都能完美运行。在另一个环境中使用 JDK7 。在纱线客户端模式下运行时遇到问题:
FYI JAVA - :在环境中面临问题
在另一个旧环境中:它工作正常
从这里我将代码移动到新环境:如果我们怀疑它是不兼容的版本问题,那么它也不应该在本地模式下工作。请澄清我的问题:
hadoop - 运行 MapR 脚本(Google Cloud SDK)在 GCP 上创建 MapR Hadoop 集群不起作用
我从https://github.com/mapr/gce下载了脚本,用于运行 MapR 脚本以在 GCP 上创建 MapR Hadoop 集群。
我已经使用 GCP 认证了 Google 帐户。gcloud auth list
好的。
运行 MapR 脚本。
这是来自 Cygwin 命令行的消息。
CHECK: -----
project-id stone-cathode-10xxxx
cluster MaprBank10
config-file 4node_yarn.lst
image centos-6 machine n1-standard-2
zone us-central1-b可选: -----
节点名称无
持久磁盘 1x256----- 继续 {y/N} ?y 启动节点1
首先创建持久数据卷 (1x256) seq: not found 启动 node2
首先创建持久数据卷 (1x256) seq: not found 启动 node3
首先创建持久数据卷 (1x256) seq: not found 启动 node4
首先创建持久数据卷 (1x256) seq: not found
名称区域 MACHINE_TYPE PREEMPTIBLE INTERNAL_IP EXTERNAL_IP 状态
如何调查和解决问题。非常感谢。
hadoop - 我可以使用集群复制在两个不同集群之间进行 Hbase 迁移吗?
我计划在两个不同的集群之间迁移,我需要将 Hbase 表从旧集群复制到新集群,广泛用于备份数据的集群复制机制能否用于将 Hbase 表从旧集群复制到新集群新集群。
提前致谢 !
hadoop - 在 HBase 中进行批量加载时出错
我试图在 HBase 中进行批量加载,但在加载数据时出现以下异常......
应用程序 application_1439213972129_0080 初始化失败 (exitCode=255) 并输出:请求的用户 root 未列入白名单且 id 为 0,低于允许的最小值 500 尝试失败。申请失败。
hadoop - Hive 创建失败:资源不可用异常
我正在尝试在配置单元中创建表,但它给了我以下异常。
有没有人遇到过这样的问题?只是为了提供更多信息,我正在使用 MapR 集群并查看 MapR 管理 UI,一切似乎都很正常。
任何想法?
hadoop - 蜂巢表存在但找不到目录
我有一个最近经历MapR cluster
了10 nodes
一些重组。基本上在一些已修复的节点上有一些丢失的磁盘。在此之后,无法在HDFS path
. 但是,hive 表和数据是完整的,可以从 hive 中看到这些表CLI
。
我试过fsck
运行没有任何问题,然后gfsck
执行了。
以下是 gfsck 的输出:
在蜂巢中,我只能看到表格、结构等。我无法触发任何其他DDL
. 例如,表上的正常计数会产生以下错误:
只有一个用户,'mapr'
,用于对 hive 表执行所有操作。
有人对此有任何想法吗?
提前致谢。