0

我正在使用 Sqoop 1.4.3-cdh4.3.0。当我使用该选项运行 sqoop 时,-password-file出现异常。

java.io.IOException: Filesystem closed
    at org.apache.hadoop.hdfs.DFSClient.checkOpen(DFSClient.java:565)
    at org.apache.hadoop.hdfs.DFSInputStream.close(DFSInputStream.java:589)
    at java.io.FilterInputStream.close(FilterInputStream.java:181)
    at org.apache.hadoop.util.LineReader.close(LineReader.java:149)
    at org.apache.hadoop.mapred.LineRecordReader.close(LineRecordReader.java:243)
    at org.apache.hadoop.mapred.MapTask$TrackedRecordReader.close(MapTask.java:222)
    at org.apache.hadoop.mapred.MapTask.runOldMapper(MapTask.java:421)
    at org.apache.hadoop.mapred.MapTask.run(MapTask.java:332)
    at org.apache.hadoop.mapred.Child$4.run(Child.java:268)
    at java.security.AccessController.doPrivileged(Native Method)
    at javax.security.auth.Subject.doAs(Subject.java:415)
    at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1408)
    at org.apache.hadoop.mapred.Child.main(Child.java:262)
2013-11-01 20:32:43,471 INFO org.apache.hadoop.mapred.Task: Runnning cleanup for the task

查看他们的代码,看起来他们正在关闭文件系统句柄(fetchPasswordFromFlie)。我在想这就是我得到上述异常的原因,因为当我使用明文密码时,它可以正常工作。

我不确定我能做些什么来解决这个问题。我看过几篇建议启用 fs.hdfs.impl.disable.cache 但我不知道这会对性能产生什么影响等。

4

1 回答 1

0

我正在使用 oozie,所以在 oozie 中我设置了 job 属性fs.hdfs.impl.disable.cache。解决了这个问题。

幸运的是,我们的映射器都没有使用 fs。我认为如果确实使用了 fs ( fs = FileSystem.get(conf)) 那么我们可能不得不检查并确保这些 fs 中的每一个都已关闭(因为每次我们调用get它都会返回一个新实例)。

于 2013-11-05T00:13:12.077 回答