问题标签 [ambari]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
hadoop - Ambari - Hive 视图 F080 错误
我在 Ambari 的帮助下在运行 CentOS6 的 3 机器集群上安装了 HDP 2.2.0,并且在安装过程中没有出错。然后我安装了 Hive 视图,如此处所述,以及必要的 Tez 视图,但每当我尝试使用该视图进行查询(甚至是简单的 SHOW TABLES;)时,我都会收到此错误:
到目前为止我一无所获,我不知道更精确的日志可能存储在哪里。有任何想法吗?
java - Docker Java 安装问题上的 Ambari-Server
今天我在一个几乎空白的系统上安装 Ambari-Server 时遇到了问题:
搜索一下我自己做了一些调查,因为它在 Docker 主机上运行。因此 IPTables 问题,这是由于它位于 Docker 容器中,并且 NET_ADMIN 功能适用于非特权容器。非特权容器无法更改其网络配置。
hadoop - Ambari,数据节点上的连接失败
我已经在我的集群上安装了带有 Hadoop 的 Ambari。我在代理后面,并且在安装过程中没有问题...当我在 Ambari 上启动所有服务时,出现以下错误:
HDFS DataNode 进程 -> 连接失败:[Errno 111] Connection denied to 0.0.0.0:50010 HDFS DataNode Web UI -> Connection failed to http://testslave3.ingc.com:50075
尝试了很多可能,但不知道问题出在哪里……</p>
如果您有任何建议……非常感谢:)
scala - Zeppelin 集群模式不适用于 spark 1.2 Ambari,Hortonworks 集群
我正在尝试部署一个集群并在其上运行一些示例 Spark/scala 代码,虽然当我在具有默认参数的独立模式下使用 zeppelin 时一切正常,但我无法让它在集群模式下工作。我尝试在 spark 中使用spark-class和start-master标准 shell 文件手动创建 spark 集群,然后将spark://.. URL 传递给 Zeppelin,但是在运行代码后,我不断收到不同的奇异错误(如 java sys. process._ library 丢失),一段时间后,spark 工作人员的状态在 Spark MasterUI 中变为 DEAD
我还尝试在 zeppelin spark.home 变量中放置yarn-client而不是 spark-URL,但它没有产生类似的错误。
您能否帮我在 Ambari 集群上部署 zeppelin 和/或提示我做错了什么?
python - python平台库中的platform.linux_distribution返回(无,无,无)
我正在尝试使用本教程使用 Red Hat Enterprise AMI 在 AWS 集群上安装 hadoop,但是当我尝试将 ambari 服务器安装到机器上时,它给了我这个错误。我在源代码中放入了一些打印语句,发现 platform.linux_distribution 出于某种原因正在返回 (None,None, None)。
这是有问题的相关代码:
apache-spark - Spark 未通过 Ambari 正确安装 HDP 2.3?
我正在尝试使用 Ambari 2.1.0 和 HDP 2.3 在 CentOS 6.6 机器的本地集群上安装 HDFS、YARN、Spark 等。我已经设法从 HDP 2.2 升级失败,所以在重新开始之前我删除了所有 HDP 2.2 包 + Ambari。我能够毫无问题地完成大部分群集安装向导,但在“安装、启动和测试”阶段,我收到以下错误消息
检查脚本似乎正在/usr/hdp/2.3.0.0-2557 中寻找火花。这是我在那个目录中看到的
抱怨的从机之一,似乎已“安装”了spark
关于如何解决这个问题的任何想法?
hadoop - Hadoop 安装:什么是“这是对 WebHCat 服务的评论(原文如此)”
使用 Ambari,This is comment for WebHcat Service
是“服务选择”步骤中的最终选择。
如果我不选择此服务,则该Customize Services
步骤将无限期挂起。选择哪些其他服务并不重要。
如果我选择它,则该Customize Services
步骤正常运行,但安装将在第四步停止并显示错误消息:
“org.apache.ambari.server.controller.spi.SystemException:
发生内部系统异常:
带有标签的配置version1439256707212
存在于webhcat-site
这是针对单节点 SLES 11 SP3 服务器的全新安装。
什么是 service This is comment for WebHcat Service
,为什么它是注释而不是服务名称?
linux - Ambari BigInsights Kafka 未启动
好吧,我的 BigInsights Image 似乎遇到了我的第一个问题,这不是一个大问题,而是需要考虑的问题。在我的 Ambari 浏览器服务页面上,它显示 Kafka 服务没有运行,我尝试了多次重启,但这似乎一直失败。所以我认为我最好进一步研究一下。在这种情况下,问题出在运行最多服务的 Ambari Master 服务器上。因此,第一个行动呼吁是看看 Ambari 是否没有正确拨打电话:
接下来我厌倦了一个干净的开始,并不是说我认为它会有很大的不同,但也许是日志不允许它重新启动的问题:
hadoop - 使用 ambari 删除服务时出错
我正在尝试删除未能正确安装的服务,以便我可以尝试重新安装它。
我在 ambari UI 中找不到任何删除选项,所以我尝试使用 API 进行删除。但是,我遇到了一条错误消息:
我正在使用 IBM Open Platform v4 的 dockerised 版本,即 IOP_v4000_20150.zip
ambari 版本是:
下面是 GET 命令的输出:
问题:如何删除并重新安装 spark?