问题标签 [fiware-cosmos]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 无法连接到 Cosmos 以使用 Python 或 Node.js 客户端查询 Hive
我实际上是在尝试开发一个简单的 Node.js 客户端,它可以用来在 Cosmos 表上查询我的 Hive 表。
我首先尝试使用 Node.js 将此实现用于 Hive: https ://github.com/wdavidw/node-thrift-hive 。我的代码如下:
我收到此错误:
之后,我尝试使用 Python 示例(由文档提供,只是为了运行一个简单的测试。
我什至无法连接到服务器。
我认为问题在于我们没有提供任何允许我们连接到 Cosmos 门户的信息。使用 Thrift 无法放置您的凭据。服务器无法识别您是真正的 Cosmos 用户并拒绝您的连接。
蟒蛇只是一个测试。我实际上正在做一个 Hackaton,并计划使用 Node.js 来查询我拥有的数据。你认为问题出在哪里?模块?宇宙门户?
fiware - FIWARE Lab 中对 Cosmos 的 WebHDFS 的 OAuth2 访问
我最近看到在 FIWARE Lab 中对 Cosmos 的 WebHDFS 的访问受到了 OAuth2 的保护。我知道我必须在请求中添加 OAuth2 令牌才能继续使用 WebHDFS,但是:
- 我怎样才能得到令牌?
- 令牌如何添加到请求中?
没有令牌,API 总是返回:
php - 在 shell 中启动“hive”命令时出错
当我尝试从 shell 运行“hive”命令时,出现以下错误:
'线程“主”java.io.IOException 中的异常:Mkdirs 未能在 org.apache.hadoop.util.RunJar.ensureDirectory(RunJar.java:100) 在 org.apache 创建 /tmp/hadoop-USERNAME/hadoop-unjar1448268252380539144 .hadoop.util.RunJar.main(RunJar.java:162)'。
但是当我尝试在 PHP 脚本中选择查询时,我们收到以下错误:
'失败:Hive 内部错误:java.lang.RuntimeException(org.apache.hadoop.ipc.RemoteException:org.apache.hadoop.hdfs.server.namenode.SafeModeException:无法创建目录 /tmp/hive-root/hive_2015-06 -29_18-03-29_493_5508174623301334280。名称节点处于安全模式。NN 上的资源不足。必须手动关闭安全模式。在 org.apache.hadoop.hdfs.server.namenode.FSNamesystem.mkdirsInternal(FSNamesystem.java:2140 ) 在 org.apache.hadoop.hdfs.server.namenode.FSNamesystem.mkdirs(FSNamesystem.java:2114) 在 org.apache.hadoop.hdfs.server.namenode.NameNode.mkdirs(NameNode.java:892) 在太阳。 reflect.GeneratedMethodAccessor2286.invoke(Unknown Source) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25) at java.lang.reflect.Method.invoke(Method.java:597) at org.apache.hadoop.ipc。RPC$Server.call(RPC.java:557)'
fiware-cosmos - Fiware 宇宙。访问我自己的 cosmos 内容时遇到的困难
我在 cosmos 中访问自己的内容时遇到问题。
例如我不能改变烫发
或者,如果我尝试删除文件夹
hadoop - Fiware 宇宙。无法连接到 COMOS 以进行配置单元服务
我无法远程连接服务配置单元。
我正在使用这个库
我的连接声明如下:
但是调用会无限期地等待,直到超时。
fiware - 使用 Cygnus 将数据从 Orion 下沉到 Cosmos 时,文件夹和文件都被赋予“null”名称
我有一个与 ngsi2cosmos 数据流相关的问题。将 Orion 接收到的信息持久保存到 Cosmos 的公共实例中时,一切正常,但目标文件夹和文件名都是“空”。
简单测试如下:
- 我创建了一个全新的 NGSIEntity 并添加了这些标头: Fiware-Service: myservice & Fiware-ServicePath: /my
- 我添加了一个以 Cygnus 作为参考端点的新订阅。
- 我向以前创建的 NGSIEntity 发送更新
当我在 Cosmos 中检查我的用户空间时,我检查是否已创建以下路由:/user/myuser/myservice/null/null.txt
文件内容还可以,Orion 中的每个更新信息都已正确嵌入其中。问题在于文件夹和文件名。我无法让它正常工作。难道不应该为文件夹和文件命名获取 entityId 和 entityType 吗?
组件版本:
- 猎户座版本:contextBroker-0.19.0-1.x86_64
- 天鹅座版本:cygnus-0.5-91.g3eb100e.x86_64
- Cosmos:全局实例
Cygnus 配置文件:
fiware - 在 Hive 查询中定义特定字段时出错
我有一个由 cygnus 与 Cosmos 连接的 Orion Context Broker。
它工作正常,我的意思是我将新元素发送到 Context Broker 并且 cygnus 将它们发送到 Cosmos 并将它们保存在文件中。
我遇到的问题是当我尝试进行一些搜索时。
我启动 hive,我看到创建了一些与 cosmos 创建的文件相关的表,所以我启动了一些查询。
一个简单的工作正常:
Hive 不会启动任何 mapReduce 作业。
但是当我想过滤、加入、计数或只获取一些字段时。这就是发生的事情:
我发现 Cygnus 创建的文件与其他文件有区别,因为在 cygnus 的情况下,它们必须用 jar 反序列化。
所以,我怀疑在这些情况下我是否必须应用任何 MapReduce 方法,或者是否已经有任何通用方法来执行此操作。
fiware - Cygnus 中的 OAuth2
由于宣布在 FIWARE Lab 中对 Cosmos 的 WebHDFS 的访问受到 OAuth2 保护,Cygnus(0.8.1 版)无法在 Cosmos HDFS 中保留 Orion 的上下文数据:
我发现必须在某处配置 OAuth2 令牌,但是如何配置?
fiware - 将 cygnus Cosmos 与 oAuth 一起使用
我收到一封电子邮件,说我们现在必须使用 OAuth 才能使用 cosmos。
是否保持旧行为?即不使用oauth?
fiware - HTTPBadRequestException:不支持 orion/0.19.0 libcurl/7.19.7 用户代理和 Cosmos HttpFS 响应:HTTP/1.1 401 Unauthorized
下午好,
我正在尝试在 cosmos HDFS 中配置 Orion Context 的持久性。到目前为止,我已经创建了一个 Orion 上下文代理实例(orion-psb-image-R4.2),创建了一个 Cosmos 用户帐户和其中的文件夹“cardio”(/user/USERNAME/cardio)。
我还将 cygnus.conf 文件(/usr/local/apache-flume-1.4.0-bin/conf/cygnus.conf)配置为如下:
问题是当我使用以下命令启动代理时:
我收到以下错误消息:
和:
这是完整的日志:
可能是什么问题?