我使用 DistributedCache.addFileToClassPath(Path file, Configuration conf) 方法向分布式缓存添加了一组 jar,以使依赖项可用于整个集群的 map reduce 作业。现在我想从缓存中删除所有这些 jar 以开始清理,并确保我在那里有正确的 jar 版本。我注释掉了将文件添加到缓存中的代码,并将它们从我在 hdfs 中复制它们的位置删除。问题是 jar 似乎仍然在类路径中,因为 map reduce 作业没有抛出 ClassNotFound 异常。有没有办法在不重新启动任何服务的情况下刷新此缓存?
编辑:随后我刷新了以下文件夹: /var/lib/hadoop-hdfs/cache/mapred/mapred/local/taskTracker/distcache/ 。那并没有解决它。作业仍会找到参考。