问题标签 [fiware-cygnus]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
1 回答
95 浏览

fiware - Cygnus 错误:找不到类 DestinationExtractor$Builder

我正在尝试运行 Cygnus,但 cygnus.conf 文件或连接器的执行方式可能存在错误,因为 Cosmos 的 HDFS 空间和 MySQL 中都没有出现任何内容。我已经订阅了,效果很好。这是我的 .conf 文件 1以及执行 cygnus 2时得到的内容。

0 投票
1 回答
191 浏览

fiware - 如何填写 Cygnus.conf

几天前,我能够在我的 Context Broker vm 上运行 cygnus,就像文档中所说的那样。cygnus 和 CB 之间的所有订阅都没有问题,并且 CB 发送的通知到达 cygnus。

我的疑问是当我必须配置 cygnus.conf 时,我认为,当 Cygnus 向 COSMOS 发送数据时,我遇到的故障与此存档的字段配置有关。下一个文件是要填写的模板,可在文档中找到:

但对我来说,我不清楚我必须在下一个领域提出什么方向:

而且我也不知道hive服务器字段,我需要写的方向是否与fiware COSMOS实例的IP地址相同:

0 投票
1 回答
202 浏览

fiware - 在 cosmos 上自动创建 hive 表

我有一个 Orion 上下文代理,我使用 cygnus(0.6) 将数据发送到我的 cosmos 帐户。Cygnus 使用我的 cosmos 上的数据正确创建了 txt 文件,但它没有为 hive 创建表。我会通过蜂巢客户端查询我的数据。在 cygnus.conf 中是否有配置参数来设置?我该如何解决?

0 投票
0 回答
287 浏览

fiware - Cygnus 不会将数据转发到 HDFS

在我的 filab vm 中配置 Cygnus 后,我收到此错误:

一个具体的例子:

我正在按照下一个手册运行 cygnus: https ://github.com/telefonicaid/fiware-connectors/tree/develop/flume ,但问题仍然存在。

我的 cygnus.conf 是下一个:

0 投票
1 回答
113 浏览

mongodb - 尽管报告成功,但未显示订阅

我正在尝试为 OrionCB 中现有实体的属性创建订阅。

网址 http://130.206.80.120:1026/NGSI10/subscribeContext

方法 POST

标头内容类型:应用程序/xml

身体

此操作检索 200 个 OK 标头代码,正文如下:

问题是当我试图检查它是否已创建时。当我尝试列出订阅时,它不会出现。我正在使用这条线:

但是如果我用 unsubscribeContextRequest 删除这个订阅,我会得到 200 OK 代码。它表明此订阅存在。

订阅存在的事实(因为它已创建和删除正常),并且在我列出订阅时没有出现,这是罕见的。

请问,有事吗?

我正在尝试启动这个 whit cygnus 进程,并停止与 cygnus 相同的进程,获得相同的结果。

问候

0 投票
1 回答
517 浏览

fiware-orion - Fiware - Cygnus to Cosmos, I can not upload data to HDFS

I've got an Orion instance with Cygnus, subcription and notify work fine but I can not send files to cosmos.lab.fi-ware.org from my instance.

[ERROR - es.tid.fiware.orionco nnectors.cosmosinjector.OrionHDFSSink.start(OrionHDFSSink.java:108)] Connection to http://130.206.80.46:14000 refused

My cygnus.conf :

Error log :

Thanks in advance.

0 投票
1 回答
106 浏览

fiware - Cygnus release/0.6.0 不创建 Hive 扩展表

我在 Fi-Lab 虚拟机中运行 cygnus 实例。我从分支版本/0.6.0 编译它。除了未创建用于上下文更新的 Hive 扩展表外,一切正常。Cygnus 成功地从 Orion 接收更新,它们被转发到 Cosmos 并创建 HDFS 文件。

天鹅座日志说Creating Hive external table=...并且没有引发任何错误。然后,如果我登录到 cosmos 头节点,我可以看到创建的 HDFS 文件,但如果我使用 Hive 控制台,则表不存在。

如果我在 Hive 控制台中输入,我可以看到一些以andSHOW TABLES;结尾的表,所以我猜它对其他人有用。_row_column

有什么提示吗?我应该使用其他版本的 cygnus 吗?

0 投票
1 回答
344 浏览

fiware-orion - 使用 Cygnus 将来自 Orion ContextBroker 的历史数据存储在本地 Hadoop 数据库中

我们目前正在一个项目中工作,我们使用 Orion ContextBroker 存储来自不同传感器的信息,并使用 Wirecloud 在网页中显示它们。

我们希望存储来自这些传感器的历史数据,以便在图表中显示它们。我查看了 Fiware 文档,他们建议通过 Cygnus 将数据存储在 Fi-lab 的 Cosmos 实例中。

问题是我们希望将历史数据存储在我们公司的本地基于 Hadoop 的服务器中,而不是在 Cosmos 中,因为我们在无法访问 Internet 的本地网络中运行该项目,并且还将该信息存储在我们的本地服务器中。

是否可以配置 Cygnus 将输出数据重定向到我的文件系统?如果是这样,必须配置哪些文件才能实现此目的?

谢谢

0 投票
1 回答
190 浏览

hadoop - Fiware-Cosmos MapReduce

我对此处解释的 MapReduce 示例有疑问:

http://forge.fiware.org/plugins/mediawiki/wiki/fiware/index.php/BigData_Analysis_-_Quick_Start_for_Programmers

它确实是hadoop MapReduce 最常见的例子,WordCount。

我能够在 Cosmos 的全局实例中毫无问题地执行它,但即使我给它一个小输入(一个 2 或 3 行的文件),执行它也需要很多时间(或多或少半分钟)。我认为这是它的正常行为,但我的问题是:¿为什么即使是很小的输入也需要这么长时间?

我猜这种方法可以通过更大的数据集提高其有效性,而这种最小延迟可以忽略不计。

0 投票
1 回答
491 浏览

fiware - 天鹅座安装

我尝试安装天鹅座。我安装 yum install java-1.6.0-openjdk-devel 并运行,我的问题是:

在这一步中,我创建 cygnus.jar 而不是 cosmos-injector-1.0-SNAPSHOT.jar ,并且我的水槽目录中不存在 # APACHE_FLUME_HOME/conf/cosmos-injector.conf 。