问题标签 [beeline]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
java - Hive - Beeline - 如何将异常从文件输入格式传递到直线
我的 FileInputFormat 有时会抛出异常,我希望用户看到来自异常的消息。有没有办法通知直线异常。它只是显示Error while processing statement: FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.MapRedTask (state=08S01,code=1)
hadoop - 使用直线连接到 Hive
我正在尝试通过 Beeline 客户端连接到我的机器中安装的配置单元。当我给出“直线”命令并连接到 Hive 时,客户端要求输入用户名和密码
我不知道我应该提供的用户名和密码是什么。我是否必须在某些配置文件中添加凭据(用户名和密码)?
jdbc - 直线命令问题
我是 Hive 的新手,希望这对于有更多经验的人来说是一件容易解决的事情,但我自己做这件事有困难。
在我的 EC2 应用服务器上,我正在运行以下命令且没有错误:
直线 -u jdbc:hive2://master
这适用于使用最新 AMI 版本通过引导操作安装的 Hive 13。'master' 指向我的 EMR 集群
然后我下载了 Hive 14 的源代码并构建了它。我已经用构建的包替换了我的 /home/hadoop/hive 目录。但是,如果我尝试执行相同的命令,则会收到错误消息:
使用提供的端口运行它可以正常工作:
直线 -u jdbc:hive2://master:10000
我希望能够在不提供默认端口号的情况下运行该命令。任何人都可以指导我的指示。
谢谢,
apache-spark - 无法启动直线客户端
我安装了 spark-1.5.1-bin-without-hadoop 并尝试使用 spark 安装目录中的以下命令启动直线。./bin/beeline 我得到“错误:无法找到或加载主类 org.apache.hive.beeline.BeeLine”。
hadoop - 使用直线自动登录
我使用 beeline 作为客户端来访问 hive 数据库。每次我使用 Beeline 时,它都会询问我连接 URL、用户名和密码。有没有办法在配置文件中设置这些参数并自动加载它而不是为每次登录重新键入它们?
hadoop - 如何退出直线?
我正在使用 CDH 5.5 并且需要使用直线。我对它很陌生,现在正在学习它。我可以直接开始,但不能像我们在 Hive 中那样退出。我需要使用 Ctrl+z 退出,这不是正确的方法。有人可以帮忙吗?
hadoop - 查询在 Hive 1.x 中有效,但在直线中无效
使用 Hive 1.x,我的查询类似于:
工作正常。然而像这样的直线
哪个使用
由用户 hadoop 运行的原因:
引起:org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.security.AccessControlException):权限被拒绝:user=anonymous,access=EXECUTE,inode="/tmp/hadoop-yarn":hadoop:supergroup: drwx------
我在beeline vs hive中也遇到了类似的错误,直接使用另一个查询:
错误:编译语句时出错:失败:SemanticException 0:0 在以下位置创建临时文件夹时出错:hdfs://localhost:9000/user/hive/warehouse。在令牌“TOK_TMP_FILE”附近遇到错误(状态=42000,代码=40000)
在我的 hive-site.xml 中尝试这个:
不工作...
想法?
hadoop - Hive 当前日期函数
我想直线获取当前日期。
我试着用这个:
它输出这个:
我想要得到它:
我该怎么做?我在这里看到直线文档: https ://cwiki.apache.org/confluence/display/Hive/LanguageManual+UDF#LanguageManualUDF-DateFunctions
但这对我不起作用。
hadoop - Hive CLI 如何从 HDFS 检索巨大的结果文件?
在我通过 CLI 执行配置单元查询后,如下所示:
- Hive 客户端将编译 QUERY 并将其发送到 Hadoop 集群。
- Hadoop 执行一些作业并将结果输出到 HDFS 的文件(假设只有 1 个减速器)。
- 然后 Hive 客户端将检索此单个文件,将其提取并输出到本地 STDOUT。
流程如下图所示:
我的问题是:如果 HDFS 上的单个结果文件非常大,甚至比我的本地物理内存大小还大,Hive 客户端如何处理它?
Hive 客户端是否检索文件
- 作为流?
- 把它放到一些临时交换文件中?
- 或者是其他东西 ?