我使用了 snappy-sql,在那里我创建了一些表并进行了一些插入和查询……一切正常
然后,由于我需要从 csv 文件中导入大量数据,我创建了一个 scala 脚本,该脚本读取每个文件并提取数据并尝试插入数据库
为此,我使用 snappydata 附带的 spark,我使用
./bin/spark-shell --conf spark.snappydata.store.sys-disk-dir=snappydatadir --conf spark.snappydata.store.log-file=snappydatadir/quickstart.log
该目录存在并且一切都“运行”“好的”......(不太正确)
这是问题...当我尝试对我在 snappy-sql 中创建的表进行查询时... spark-shell 告诉我这些表不存在...并且当脚本到达插入命令时发生相同
所以我的问题,因为我是新手...
如何连接到该 spark-shell (snappydir/bin/spark-shell...) 并使用 snappydata 中已经存在的表?
我敢打赌我会点头添加一些特定的配置......
感谢您的帮助......正如我所说......我在 snappydata 和 spark 方面还不够基本,所以我在尝试配置和设置我的环境时感到有点失落......