我有一个 csv 日志文件。使用这句话将其加载到 Hive 后:
CREATE EXTERNAL TABLE iprange(id STRING, ip STRING) ROW FORMAT DELIMITED FIELDS TERMINATED BY '\,' STORED AS TEXTFILE LOCATION '/user/hadoop/expandediprange/';
我想执行一个简单的查询,例如:
select * from iprange where ip="0.0.0.2";
但我得到一个空的结果。
我在 HDFS 上运行 Hive,我应该使用 HBase 吗?我的结论是它与桌子的大小有关。日志文件为 160 MB,在 Hive 中生成的表有 800 万行。如果我尝试为自己创建一个较小的文件并将其加载到 Hive,它将起作用。
知道出了什么问题吗?
编辑:我忘了说它使用小型实例在 Amazon Elastic MapReduce 上运行。