我知道这个问题有点奇怪。我喜欢 Hadoop 和 HDFS,但最近使用 Hive Metastore 研究 SparkSQL。
我想使用 SparkSQL 作为一个垂直 SQL 引擎来跨不同的数据源(如 RDB、Mongo、Elastic ......)运行 OLAP 查询,而无需 ETL 过程。然后我在 Metastore 中使用相应的 Hive 存储处理程序将不同的模式注册为外部表。
此外,HDFS 在我的工作中并未用作数据源。然后,给定的 Map/R 已经被 Spark 引擎取代。在我看来,Hadoop/HDFS 是无用的,但它是 Hive 安装的基础。我不想都买。
我想知道如果我只启动 Hive Metastore 服务而不使用 Hadoop/HDFS 来支持 SparkSQL,会发生什么样的问题。我会把自己放到丛林里吗?