1

SnappyData v.0-5

目标:我想创建一个持久的、复制的 ROAD 表,并使用 Snappy Shell 从 CSV 文件加载它。ROAD 表应将“road_id”作为主键以防止重复 ID。

我试过的命令是:

SET SCHEMA A;

DROP TABLE IF EXISTS ROAD;
DROP TABLE IF EXISTS STAGING_ROAD;

CREATE TABLE STAGING_ROAD 
(road_id string, name string)
USING com.databricks.spark.csv
OPTIONS(path 'roads.csv', header 'true');

CREATE TABLE ROAD
(
    road_id VARCHAR(64) NOT NULL,
    name VARCHAR(64) NOT NULL,
    CONSTRAINT road_PK PRIMARY KEY (road_id)
) USING row OPTIONS (BUCKETS '5', REPLICATE, PERSISTENT)
AS (select road_id, name from STAGING_ROAD);

这不起作用。而且,我必须将我的 ROAD 创建简化为这个,以使其甚至被创建。这个没有PK。它没有复制或持久性。

CREATE TABLE ROAD USING row OPTIONS ()
AS (select road_id, name from STAGING_ROAD);

我应该如何编写 SnappyData SQL 文件来实现上述目标?

4

2 回答 2

2

这里有几点。由于要设置一些约束,因此需要先创建表。然后您可以将数据插入表中。

a) CREATE TABLE ROAD (road_id VARCHAR(64) NOT NULL, name VARCHAR(64) NOT NULL, CONSTRAINT road_PK PRIMARY KEY (road_id)) 使用行选项 (PERSISTENT ''); 您不必指定 REPLICATE 关键字(不需要,默认为复制)或 BUCKET 参数(仅适用于分区表)。

b) 理想情况下,它应该是 INSERT INTO ROAD (SELECT * FROM STAGING_ROAD)。不幸的是,我们没有 SQL 支持从外部数据(如 0.5 版本中的 csv、parquet 进行批量插入),我假设您正在使用它。这已在最新的 master 中得到照顾,并将在后续版本中提供。

c) 解决方法是编写一个 Spark 作业并插入到创建的行表中。您可以参考文档的http://snappydatainc.github.io/snappydata/jobs/部分。

如果您需要其他信息,请告诉我。

于 2016-07-26T12:03:53.703 回答
2

您可以使用以下脚本实现相同的目的:

CREATE TABLE STAGING_ROAD USING com.databricks.spark.csv OPTIONS(path 'roads.csv', header 'true',inferSchema 'true');

CREATE TABLE STAGING_ROAD2 USING row AS (SELECT road_id,name FROM STAGING_ROAD);

CREATE TABLE ROAD
(
    road_id VARCHAR(64) NOT NULL PRIMARY KEY,
    name VARCHAR(64) NOT NULL
) USING row OPTIONS (PARTITION_BY 'road_id', BUCKETS '5', PERSISTENT 'ASYNCHRONOUS');

INSERT INTO ROAD SELECT road_id, name from STAGING_ROAD2;

DROP TABLE STAGING_ROAD2;

STAGING_ROAD2 的创建是由于最新版本不需要的错误。

以编程方式,您可以以更简单的方式实现它,如下所示

String roadCsvFile = "road.csv";

snc.sql("CREATE TABLE ROAD( road_id VARCHAR(64) NOT NULL PRIMARY KEY,  name VARCHAR(64) NOT NULL) USING row OPTIONS (PARTITION_BY 'road_id', BUCKETS '5', PERSISTENT 'ASYNCHRONOUS')");

DataFrame roadDf = snc.read()
         .format("com.databricks.spark.csv") // CSV to DF package
         .option("header", "true") // Use first line of all files as header
         .option("inferSchema", "true") // Automatically infer data types
         .load(roadCsvFile);

// Populate the table in snappy store
roadDf.write().insertInto("ROAD");
于 2016-07-26T11:55:48.923 回答