为了让标准文件系统用户或程序将 HDFS 名称空间视为本地安装的目录,CDH4 即具有hadoop-hdfs-fuse组件。
它与非安全 HDFS 一起工作,但在 Kerberos 安全 HDFS 上,如何在那里做呢?
谢谢。
为了让标准文件系统用户或程序将 HDFS 名称空间视为本地安装的目录,CDH4 即具有hadoop-hdfs-fuse组件。
它与非安全 HDFS 一起工作,但在 Kerberos 安全 HDFS 上,如何在那里做呢?
谢谢。
您可以使用支持 Kerberos 且更易于设置的 py-hdfs-mount:https ://github.com/EDS-APHP/py-hdfs-mount
自 Apache Hadoop 发行版 2.0.2 版以来,已添加对 fuse_dfs 可执行文件(随 Hadoop 发行版提供)的 Kerberos 身份验证支持。
我花了很多时间来弄清楚应该如何配置它。我发现为了使 Fuse-DFS 选择正确的配置文件(包含身份验证类型、kerberos 不简单等),CLASSPATH
必须包含HADOOP_CONF_DIR
之前Hadoop jar 目录。
使用 Kerberos 身份验证时,用户必须在访问 FUSE 挂载点之前运行 kinit。不这样做会导致用户尝试访问挂载点时出现 I/O 错误。
hdfs fuse 模块还没有 kerberos 支持。