问题标签 [cosmos]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
fiware - FIWARE Cosmos-GUI:无效的 IdM 用户
我一直在尝试登录 Cosmos-GUI 以开始开发我的 FIWARE 应用程序,但是在使用我的 FILAB 用户/密码登录后,我收到“错误:无效的 IdM 用户”
我看到了一个类似的问题,他们说这是由服务器迁移引起的,现在已经解决了,但我仍然遇到问题(尝试连接到 Cosmos Gui 时 Idm 用户无效)。
fiware - 远程连接到 fiware-cosmos 返回身份验证错误
我们有一个 COSMOS 帐户cosmos.lab.fi-ware.org
,可以将文件本地加载到集群上。
但是,我们在远程加载时遇到了问题,我们在指南站点上遵循的说明显示如下:
但是,使用 WebHDFS/HttpFS RESTful API 将允许您上传存在于 FI-LAB 中 Cosmos 全局实例之外的文件。以下示例使用 HttpFS 而不是 WebHDFS(使用 TCP/14000 端口而不是 TCP/50070),并且 curl 用作 HTTP 客户端(但您的应用程序应该实现自己的 HTTP 客户端):
如您所见,数据上传是一个两步操作,如 WebHDFS 规范中所述:API 的第一次调用直接与 Head Node 对话,指定新文件的创建及其名称;然后头节点发送一个临时重定向响应,在集群中所有现有的数据节点中指定数据节点必须存储的数据,这是第二步的端点。尽管如此,HttpFS 网关实现了相同的 API,但其内部行为发生了变化,使重定向指向头节点本身。
但是,当我们运行这些命令时,我们会返回服务器错误,例如:
另一个是 500 服务器错误。请提供将文件远程加载到 COSMOS 共享资源中的命令。
最终我们想从我们的 InfluxDB 中获取数据并加载到 COSMOS,如果可能的话,我们希望通过 REST 调用来完成(否则是 python)。
非常感谢,卡里
fiware - How to programmatically authenticate to HDFS in fiware cosmos
I'm writing a .net application with C# to programmatically run REST apis against hdfs on fiware but on http POST operations it fails with 401 (access denied). it works for simple GET operations but I'm not sure how to do authentication. From the spec it seems SPEGNA and delegated auth tokens are two options but how do i do this programmatically? I only have my user name and password to go off of. I'm using the RestSharp library to make rest interactions easier.
This code works
this code fails with http 401
HTTP Status 401 - org.apache.hadoop.security.authentication.client.AuthenticationException: Anonymous requests are disallowed
Thoughts? ideas? thank you in advance!
c# - cosmos 在 C# 的控制台屏幕上显示窗口窗体
在 cosmos 中,有什么方法可以在控制台屏幕上显示窗口窗体?如果这是可能的,你能告诉我如何在 C# 中做到这一点吗?
c# - Cosmos 操作系统问题
我刚开始使用 cosmos 为 Visual Studio 开发操作系统(在 C# 中)
很多人说如何关闭它,我尝试了每一种方法,但是这个给出了一些我根本无法理解的奇怪错误!
这是我用来关闭操作系统的代码:
但这是我在构建时收到的错误:
我不知道那是什么意思......
有人可以帮我解决这个问题吗?
谢谢你!
php - 在 shell 中启动“hive”命令时出错
当我尝试从 shell 运行“hive”命令时,出现以下错误:
'线程“主”java.io.IOException 中的异常:Mkdirs 未能在 org.apache.hadoop.util.RunJar.ensureDirectory(RunJar.java:100) 在 org.apache 创建 /tmp/hadoop-USERNAME/hadoop-unjar1448268252380539144 .hadoop.util.RunJar.main(RunJar.java:162)'。
但是当我尝试在 PHP 脚本中选择查询时,我们收到以下错误:
'失败:Hive 内部错误:java.lang.RuntimeException(org.apache.hadoop.ipc.RemoteException:org.apache.hadoop.hdfs.server.namenode.SafeModeException:无法创建目录 /tmp/hive-root/hive_2015-06 -29_18-03-29_493_5508174623301334280。名称节点处于安全模式。NN 上的资源不足。必须手动关闭安全模式。在 org.apache.hadoop.hdfs.server.namenode.FSNamesystem.mkdirsInternal(FSNamesystem.java:2140 ) 在 org.apache.hadoop.hdfs.server.namenode.FSNamesystem.mkdirs(FSNamesystem.java:2114) 在 org.apache.hadoop.hdfs.server.namenode.NameNode.mkdirs(NameNode.java:892) 在太阳。 reflect.GeneratedMethodAccessor2286.invoke(Unknown Source) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25) at java.lang.reflect.Method.invoke(Method.java:597) at org.apache.hadoop.ipc。RPC$Server.call(RPC.java:557)'
fiware - 使用 Cygnus 将数据从 Orion 下沉到 Cosmos 时,文件夹和文件都被赋予“null”名称
我有一个与 ngsi2cosmos 数据流相关的问题。将 Orion 接收到的信息持久保存到 Cosmos 的公共实例中时,一切正常,但目标文件夹和文件名都是“空”。
简单测试如下:
- 我创建了一个全新的 NGSIEntity 并添加了这些标头: Fiware-Service: myservice & Fiware-ServicePath: /my
- 我添加了一个以 Cygnus 作为参考端点的新订阅。
- 我向以前创建的 NGSIEntity 发送更新
当我在 Cosmos 中检查我的用户空间时,我检查是否已创建以下路由:/user/myuser/myservice/null/null.txt
文件内容还可以,Orion 中的每个更新信息都已正确嵌入其中。问题在于文件夹和文件名。我无法让它正常工作。难道不应该为文件夹和文件命名获取 entityId 和 entityType 吗?
组件版本:
- 猎户座版本:contextBroker-0.19.0-1.x86_64
- 天鹅座版本:cygnus-0.5-91.g3eb100e.x86_64
- Cosmos:全局实例
Cygnus 配置文件:
raspberry-pi - 如何让 Raspberry Pi 使用自定义操作系统
我已经制作了一个操作系统是 cosmos,但我似乎无法让 Raspberry Pi 真正启动操作系统。我制作了一个可启动的 SD 卡和 USB 记忆棒,但树莓派没有加载任何内容。
c# - 方法'run'没有重载需要1个参数
当我遇到这个小问题时,我正在 COSMOS 中创建一个操作系统。
这是登录类..我猜公共静态无效运行有问题?
hadoop - Fi-Ware Cosmos:名称节点处于安全模式
我正在尝试删除我的 Cosmos 帐户中的一个文件夹,但我得到了 SafeModeException:
# hadoop fs -rmr /home/<user>/input
rmr: org.apache.hadoop.hdfs.server.namenode.SafeModeException:
Cannot delete /user/<user>/input. Name node is in safe mode