0

尝试从Spark 峰会 2014进行练习。在终端中运行命令时,我不断收到以下信息:

Spark assembly has been built with Hive, including Datanucleus jars on classpath
Java HotSpot(TM) 64-Bit Server VM warning: ignoring option MaxPermSize=128m; 
support was removed in 8.0
15/04/26 14:21:05 WARN NativeCodeLoader: Unable to load native-hadoop library 
for your platform... using builtin-java classes where applicable
15/04/26 14:21:05 WARN LoadSnappy: Snappy native library not loaded

我在网上发现 MAC 上会出现第一个 NativeCodeLoader 警告。第二个呢?如何加载 Snappy?

谢谢!

编辑:按原样,代码运行,生成上述输出,仅此而已。

4

2 回答 2

0

如果您正在运行一个简单的 Map Reduce 程序,您可以通过安装 snappy 库并将其放置在您的类路径中来避免该警告。您可以从这里下载 jar https://www.versioneye.com/java/org.xerial.snappy:snappy-java/1.1.1.2

或者,如果您使用的是 Maven 项目,那么您必须在 pom.xml 中添加此依赖项

<dependency>
  <groupId>org.xerial.snappy</groupId>
  <artifactId>snappy-java</artifactId>
  <version>1.1.1.7</version>
  <type>jar</type>
  <scope>compile</scope>
</dependency>

希望这对你有用。

于 2015-04-29T04:41:03.660 回答
-1

在 OSX 环境中会出现这些警告。验证您是否正确执行了教程中的步骤。要查看任何输出,您需要更新原始 MovieLensALS.scala 文件。

在“// your code here”注释下方添加以下代码。

val numRatings = ratings.count
val numUsers = ratings.map(_._2.user).distinct.count
val numMovies = ratings.map(_._2.product).distinct.count

println("Got " + numRatings + " ratings from "
  + numUsers + " users on " + numMovies + " movies.")
于 2015-08-10T00:31:13.017 回答