问题标签 [apache-hive]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
hadoop - Hiveserver 直线日志记录 2.0.1
将 Hiveserver 与直线连接并出现异常时,我没有收到任何日志
因此,我无法在 Beeline 中获取我的日志。
谁能帮我解决这个问题或指导我启用 HIVE 2.0.1 中的日志。
hadoop - Hive 执行错误
我是 avro 和 hive 的新手,在学习它时我有些困惑。使用
tblproperties('avro.schema.url'='somewhereinHDFS/categories.avsc')
.
如果我create
像这样运行这个命令
id Int, dep_Id Int
但是即使我提供avsc
包含完整架构的文件,为什么还要在上面的命令中使用。
为什么即使avsc
文件存在并且已经包含架构,配置单元也需要指定架构?
hadoop - PIG 中 bag 变量的范围
我是 PIG 的初学者,遇到了这个问题
我在 pig 中使用 HCat 存储器加载了一个配置单元表,其中有一个字段 current_hour: long
现在对于袋子上的其他一些计算说 beta 我需要从 delta 生成 current_hour 但我无法执行操作
有什么办法可以执行这个计算吗?
sql - Hive / SQL - 带回退的左连接
在 Apache Hive 中,我必须对表进行左连接,以保留左侧数据中的所有数据,并在可能的情况下从右侧表中添加数据。为此,我使用了两个连接,因为连接基于两个字段(material_id 和 location_id)。这适用于两个传统的左连接:
对于 location_id,数据库只包含两个不同的值,比如 1 和 2。
我们现在有一个要求,如果没有“完美匹配”,这意味着只有 material_id 可以被连接,并且对于 location_id 的连接没有正确的 material_id 和 location_id 组合(例如 material_id=100 和 location_id=1)在 b 表中,连接应该“默认”或“回退”到 location_id 的其他可能值,例如 material_id=001 和 location_id=2,反之亦然。这应该只适用于 location_id。
我们已经用 CASE 等研究了所有可能的答案,但没有占上风。像这样的设置
我们尝试过或没有弄清楚如何用 hive 查询语言真正做到这一点。
谢谢您的帮助!也许有人有一个聪明的主意。
以下是一些示例数据:
PS:如here所述存在等在子查询ON中不起作用。
apache - I'm installing Hive 2.0.0 with Hadoop 2.7.2
I' trying to install Hive 2.0.0 with Hadoop 2.7.2
But I don't know what's the problem in my execution
and then no reaction
what's the problem??
I execute ./bin/schematool -initSchema -dbType derby already command
and I'm running hadoop (./start.dfs.sh) and no problem in hadoop
How can fix it??
hadoop - Sqoop 增量加载到分区的配置单元表中
如何将增量数据加载到分区的配置单元表中
我有包含以下列的表“用户”,我创建了基于 created_on 字段的配置单元分区
我创建了一个 sqoop 作业以根据上次修改日期增量导入
如果您观察上述作业,这将根据上次修改的值获取并插入错误的分区
有没有解决这个问题的方法
java - Hive JDBC 错误:java.lang.NoSuchFieldError:HIVE_CLI_SERVICE_PROTOCOL_V7
我正在尝试使用 Hive2 连接器通过 JDBC 创建与 Impala 的连接。但我收到了这个错误:
我不知道这是否是依赖兼容性问题:
我将 CDH 5.8.0 与 Hive 1.1.0 和 Hadoop 2.6.0 一起使用
或者可能是代码问题:
但我认为不是,因为我使用 Impala-JDBC 进行了尝试并成功了。
另一件事是我没有使用 Impala-JDBC,因为它不读取或发送USERNAME
and PASSWORD
,给我这个错误:
问候,
mongodb - 如何将子文档数据数组从 mongodb 加载到 hive
我们正在尝试在 hive 中使用 mongodb 数据,文档有子文档数组。如何将复杂数据加载到 hive 中?
这是示例 json:
谢谢...
apache-flink - Flink 1.1.3 与 Hive 2.1.0 交互
请原谅我的不便,但我没有在文档或互联网上找到答案。
我有一个平台:
- Hadoop 2.7.3
- 蜂巢 2.1.0
- Hbase 1.2.4
- 火花 1.6
我已经集成了 Flink 1.1.3 以在本地模式和 Yarn 模式下使用它。
我有兴趣使用带有 Hive 的 Flink(作为带有 Spark 的 hiveContext)来读取 scala-shell 中的数据,这可能吗?如何 ?
问候。