问题标签 [httpfs]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
761 浏览

hadoop - httpfs for hadoop apache 下载

我在 Centos 7 操作系统上使用 Apache Hadoop-2.7.1。

要设置 HttpFs,此链接建议安装 HttpFs。我没有找到任何可用的二进制文件。

是否有另一种方法可以为 Hadoop 配置 HttpFs?

0 投票
1 回答
26963 浏览

hadoop - httpfs 错误 操作类别 READ is not supported in state standby

我正在研究 hadoop apache 2.7.1,我有一个由 3 个节点组成的集群

nn1
nn2
dn1

nn1 是 dfs.default.name,因此它是主名称节点。

我已经安装了 httpfs 并在重新启动所有服务后当然启动了它。当 nn1 处于活动状态且 nn2 处于待机状态时,我可以发送此请求

从我的浏览器中,会出现一个打开或保存此文件的对话框,但是当我终止在 nn1 上运行的名称节点并正常重新启动它时,由于高可用性,nn1 变为待机状态,而 nn2 变为活动状态。

所以这里 httpfs 应该可以工作,即使 nn1 成为待机,但现在发送相同的请求

给我错误

httpfs不应该克服nn1待机状态并带文件吗?是因为配置错误,还是有其他原因?

core-site.xml的是

0 投票
1 回答
882 浏览

hadoop - HttpF 优于高可用性和名称服务

我在由三个节点组成的集群上使用 Apache Hadoop-2.7.1

我们知道如果我们在这个集群中配置高可用

我们将有两个主节点,一个是活动的,另一个是备用的

如果我们也将集群配置为由名称服务调用,那么以下场景就可以了

情况是:

1- nn1 处于活动状态,而 nn2 处于待机状态

所以如果我们想从 dn1 获取文件(称为 myfile),我们可以从浏览器发送这个 url(webhdfs 请求)

http://nn1/webhdfs/v1/hadoophome/myfile/?user.name=root&op=OPEN

2- nn1 中的名称节点守护程序被杀死,因此根据高可用性,nn1 处于待机状态,而 nn2 处于活动状态,因此我们现在可以通过向 nn2 发送此 Web 请求来获取 myfile,因为它现在处于活动状态

http://nn2/webhdfs/v1/hadoophome/myfile/?user.name=root&op=OPEN

因此配置具有高可用性的名称服务足以解决名称节点故障并让 webhdfs 正常工作

那么在这里添加httpfs有什么好处,因为不支持高可用性的webhdfs,我们必须配置httpfs

0 投票
2 回答
930 浏览

hadoop - 活动名称节点崩溃时不会触发故障转移

我在由三个节点组成的集群上使用 Apache Hadoop-2.7.1

nn1 主名称节点

nn2(第二个名称节点)

dn1(数据节点)

我已经配置了高可用性,并且 nameservice 和 zookeeper 在所有三个节点上都工作
,它作为领导者在 nn2 上启动

首先,我必须提到 nn1 处于活动状态,而 nn2 处于待机状态

当我在 nn1 上杀死名称节点时

,nn2 变为活动状态,因此正在发生自动故障转移

但在以下情况下(我在 nn1 处于活动状态且 nn2 处于待机状态时应用)并且是:

当我关闭 nn1 时(nn1 整个崩溃)

nn2 保持待机并且不会变为活动状态,因此不会发生自动故障转移

日志中有明显错误

nn2 和 dn1 上的两个现有日志节点不应该发生自动故障转移

可能的原因是什么?

0 投票
1 回答
593 浏览

http - 如何为基于 HTTP 的文件服务器实现重命名功能?

我必须实现一个具有一些文件服务器功能的 HTTP 服务器。我已经编写了 HTTP HEAD、GET、PUT 和 DELETE 请求。

接下来我需要实现类似 RENAME 或 MOVE 来更改已经存储在服务器上的文件的名称。但我找不到合适的 HTTP 请求方法。

知道如何做到这一点,或者这可能是不可能的吗?

0 投票
1 回答
288 浏览

java - Httpfs 使用 httpclient 创建或附加文件

我使用 HTTPCLIENT 创建或附加带有其他组件 HTTPFS 的文件。

示例 cmd curl - 使用 curl

但是当我执行请求时,程序返回 ERROR com.vhl.action.WebHdfsAction - null

我的代码创建:

0 投票
1 回答
661 浏览

curl - cURL 中的身份验证从 Windows 到使用 Kerberos 保护的 Hadoop HTTPFS

我想使用带有 curl 的 HTTPFS 将数据从本地 Windows 机器加载到 HDFS。Hadoop 集群由 Kerberos 保护。

我如何设法完成身份验证?

尝试以下语句时...

它失败了

卷曲版本是:

我为 Windows 安装了 MIT Kerberos,它显示了一张有效的票。不幸的是,我对 Kerberos 了解不多,这就是为什么我有点卡住了。

非常感谢任何帮助或研究起点。

0 投票
0 回答
414 浏览

scala - 如何使用 Scalaj-Http 和 Hadoop HttpFs 流式下载

我的问题是在使用 Scalaj-Http 时如何使用缓冲流。

我编写了以下代码,这是一个完整的工作示例,它将使用 HttpFS 从 Hadoop HDFS 下载文件。我的目标是处理非常大的文件,这将需要使用缓冲方法,将多个 I/O 写入本地文件。

我无法找到有关如何使用 ScalaJ-Http 接口的流的文档。我对可以处理大型多 GB 文件的下载和上传示例感兴趣。我下面的代码用于仅适用于原型设计的内存缓冲。

0 投票
0 回答
84 浏览

hadoop - 尝试使用 HttpFS 访问目录时出现 NullPointerException

我有一个运行 Hadoop 2.6.0-cdh5.4.1 的集群。我想使用 webhdfs rest api 在目录中创建一个文件。我有 2 个目录,称为 directory1 和 directory2,都在 / 中。

它们都具有相同的权限(711)、所有者和组。

以下命令成功:

而以下

抛出错误

{“消息”:null,“异常”:“NullPointerException”,“javaClassName”:“java.lang.NullPointerException”}。

两个命令的 DatanodeUrl 和 HttpFSPort 相同。directory2 上的所有 webhdfs 请求都失败并出现相同的错误 (NullPointerException),而所有 webhdfs 请求都在 directory1 上工作。

您有什么想法会导致此错误吗?

谢谢你。

0 投票
1 回答
172 浏览

docker - 通过 Docker 在 CDH 中使用 WebHDFS/HttpFS

我正在通过 Docker Toolbox(用于 win10 家庭版的 docker)使用 cloudera 快速入门。CDH版本是5.7

我正在尝试使用 Webhdfs/HttpFS 连接到 hdfs,我不确定端口是 50070 还是 14000。是 CDH 5.7 中的端口列表

1)我实际上不确定我需要使用的用户名是什么,我尝试过 root、cloudera 或者它的容器名称? 尝试连接 CMD

2)我已经尝试了这些示例并得到了相同的错误(example1example2

谢谢