5

我正在运行 RHEL 6.7,并设置了 Anaconda。(蟒蛇4.10)。Jupyter 正在运行 OOTB,默认情况下它具有 Python 内核。一切都很花哨,所以我可以在 Jupyter 中选择“python notebook”。

我现在也在寻找使用 Jupyter 设置 Scala 的方法。(看起来像 Spark 内核——现在 Toree 可以工作了吗?)

我看到的每一个问题/答案都没有提到我遇到的问题。

我试图安装 Toree,并做到了

sudo pip install toree 

它奏效了。但是接下来的步骤也是

jupyter toree install

我得到的错误是:

jupyter toree install
Traceback (most recent call last):
  File "/usr/app/anaconda/bin/jupyter-toree", line 7, in <module>
    from toree.toreeapp import main
ImportError: No module named toree.toreeapp

我错过了一步吗?有什么我做错了吗?如果我需要提供更多信息,我也会很高兴。谢谢!

编辑:在 Jupyter 中获取 Scala 笔记本的标准/最简单/可靠的方法是什么?(tl;博士)

4

3 回答 3

2

如果您尝试使用 2.11 获取 spark 2.0,您可能会收到奇怪的消息。您需要更新到最新的 toree 0.2.0 For Ubuntu 16.04 64bit。我在 https://anaconda.org/hyoon/toree中有包和 tgz 文件

这适用于 python 2.7,您将需要 conda。如果你不知道怎么做,那就下载 tgz 然后

tar zxvf toree-0.2.0.dev1.tar.gz
pip install -e toree-0.2.0.dev1

我更喜欢:

jupyter toree install --interpreters=Scala --spark_home=/opt/spark --user --kernel_name=apache_toree --interpreters=PySpark,SparkR,Scala,SQL

~/.local/share/jupyter/kernels这将在(--user 是关键)中创建内核

快乐的火花!

于 2016-09-22T01:15:05.713 回答
0

首先,确保在 shell 环境中设置 SPARK_HOME 变量以指向 spark 所在的位置,例如:

export SPARK_HOME=$HOME/Downloads/spark-2.0.0-bin-hadoop2.7

下一个安装 toree

sudo jupyter toree install --spark_home=$SPARK_HOME
于 2016-09-18T04:29:24.357 回答
0

以下对我有用(使用 conda 4.2.13):

conda install -c creditx toree

然后,

jupyter toree install --spark_home=/home/crocefisso/Softs/spark-2.0.0-bin-hadoop2.7 --user

/home/crocefisso/Softs/spark-2.0.0-bin-hadoop2.7我放 Sp​​ark 的地方在哪里

于 2017-01-05T11:47:22.613 回答