问题标签 [elasticsearch-jdbc-river]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
oracle - 配置river-jdbc oracle的问题
我正在尝试将 elasticsearch river-jdbc 插件与 oracle 数据库一起使用。创建河流时,我遇到了一个例外:
jdbc oracle 驱动程序 ojdbc7.jar(x64 版本)位于 $ES_HOME/plugins/jdbc 和 $ES_HOME/lib 文件夹中。
我在 windows 7 x64 下运行 elasticsearch v1.4.0,elasticsearch-river-jdbc-1.4.0.3.Beta1
这是河流配置:
我没有看到我的设置中缺少什么
问候
sql - 使用关系数据进行弹性搜索的河流
考虑以下 sql 模式:
其中 Table_2 和 Table_1 具有多对多关系
现在我正在尝试创建一个弹性搜索河,它将从 table_2 中提取所有数据,但我也想要 table_1 中的行,而不仅仅是 id。
这是我相信将是我的sql:
现在,在这样做之后,我注意到对于 Table_3 中的每个关系,我得到了重复的行 IE,我将得到一行,我明白为什么会这样,但我想要的是 Table_2 的一个条目,其中包含表一的条目。
这就是我现在得到的弹性
但相反,我希望它看起来像:
我希望能够摆脱对 sql 使用弹性搜索河,但我不确定它是否允许这种查询。
elasticsearch - 无法在 Elasticsearch 中创建 Phoenix JDBC River
程序:Hbase 0.98、Elasticsearch 1.4.2 和 Phoenix 4.2.2
尝试为 Elasticsearch 创建 JDBC 河流时
在终端收到错误
您能否帮助找出问题所在以及如何解决?
jdbc - ElasticSearch JDBC River 未从 MSSQL 获取所有记录
我设置了一条间隔 20 分钟的 ElasticSearch 河流。这是河流的定义:
River 以 20 分钟的间隔成功执行。但是当 River 执行时,它只运行 3 分钟并且不会获取所有记录。我的表中有大约 330 万条记录,并且在每次执行河流时,它都会获取大约 0.3-05 万条记录(在 3 分钟内)然后停止。
我的问题是为什么河流会在 3 分钟后停止?River 距离下一次运行还有 17 分钟的时间,它应该在接下来的 17 分钟内执行,或者直到获取所有记录。
任何帮助将不胜感激。谢谢
注意:我正在从 BigDesk 和“status”标志检查河流状态,该标志在河流开始执行时设置为真。
mysql - 从 jdbc elasticsearch 河中搜索
我正在尝试学习弹性搜索并将其连接到 MySQL 数据库。如果我自己使用elasticsearch,一切正常,但是当尝试从数据库中获取数据时,由于某种原因它似乎不起作用。我是弹性搜索和使用 jdbc 的河流的真正新手,所以我真的无法比这更明确地描述我的问题。
为了创建一条河流,我使用了以下命令:
运行时:
我得到以下答案:
任何想法?
jdbc - 不支持使用 informix 的弹性搜索河
当我尝试将弹性搜索 jdbc River 插件与 postgres 或 h2 db 连接以将数据输入弹性搜索引擎时,它的行为正常。
但是如果是informix,它总是会出现这种错误:-
java.sql.SQLException:找不到适合 jdbc 的驱动程序:informix-sqli:
即使在我将 jar 文件放入 plugin/jdbc 文件夹之后。
任何人都可以对此有任何想法。
java - 重新启动后带有 RSS 插件的弹性搜索挂起
我的 Mac 上有一个干净的 ES 服务器,带有 RSS 插件 - 添加多个源后,服务器在我重新启动后挂起(因为我想添加其他插件或重新启动 mac)。
有没有办法阻止它/恢复当前安装?
日志:
另外 3 个 [2015-01-14 09:44:00,729][DEBUG][action.admin.cluster.health] [Mar-Vell] 观察者:来自集群服务的超时通知。超时设置 [30s],自开始以来的时间 [30s] [2015-01-14 09:44:01,048][WARN][discovery.zen.ping.multicast] [Mar-Vell] 收到 ping 响应 ping_response{node [[Asmodeus ][JpUdhq0FRYKr7RqDqcK7WQ][Dorons-MBP.Home][inet[/10.0.0.7:9300]]], id[1095], master [[Asmodeus][JpUdhq0FRYKr7RqDqcK7WQ][Dorons-MBP.Home][inet[/10.0. 0.7:9300]]], hasJoinedOnce [true], cluster_name[elasticsearch]} 没有匹配的 id [3]
oracle - Elasticsearch + Oracle JDBC River
也许这是一个简单的问题,但我是 ElasticSearch 的新手。安装 es 1.4,Oracle 10g 已启动并运行,在 ES 中加载 jdbc 插件没有问题。Marvel 也在工作.. 试图在 Marvel/Sense 中使用以下语句创建一条河流:
我一直收到这个错误:
在 CLI 上我得到:
我首先虽然是连接问题,但检查它似乎是 ES & Oracle 中的映射问题。有人做过 ES+Oracle River 集成吗?任何帮助将非常感激。
elasticsearch - ElasticSearch 错误:QueryParsingException[[mongoindex] 未能找到 geo_point 字段 [pin.location]];
我是 ES 的新手。我正在尝试编写java程序来使用ES对MongoDB进行地理搜索(安装了河流插件等并能够使用java程序进行正常搜索)。我在 mongodb 中有一个集合(表),其中存储了纬度和经度值。现在我想根据我从 Java 程序传递的纬度和经度检索记录。
如果我执行上述程序,我会得到“QueryParsingException[[mongoindex] failed to find geo_point field [pin.location]];” 这个 pin.location 是什么?我的 mongodb 表也有“纬度”和“经度”列。但在上面的过滤器中,我有“lat(10).lon(20)”。我在这里遗漏了一些东西。请帮助我理解。任何快速帮助都非常感谢.
全栈tarce:
},"解释":true}]]]; 嵌套:QueryParsingException[[mongoindex] 找不到 geo_point 字段 [pin.location]];org.elasticsearch.action.search.type.TransportSearchTypeAction$BaseAsyncAction.onFirstPhaseResult(TransportSearchTypeAction.java:233) 在 org.elasticsearch.action.search.type.TransportSearchTypeAction$BaseAsyncAction$1.onFailure(TransportSearchTypeAction.java:179) 在 org .elasticsearch.search.action.SearchServiceTransportAction$12.handleException(SearchServiceTransportAction.java:351) 在 org.elasticsearch.transport.netty.MessageChannelHandler.handleException(MessageChannelHandler.java:185) 在 org.elasticsearch.transport.netty.MessageChannelHandler.handlerResponseError( MessageChannelHandler.java:175) 在 org.elasticsearch.transport.netty.MessageChannelHandler。
谢谢, 斯里
elasticsearch - Elasticsearch 数据库同步
我正在使用 jdbc River 来同步 Elasticsearch 和数据库。已知的问题是从数据库中删除的行仍保留在 ES 中,jdbc River 插件无法解决该问题。jdbc River的作者提出了解决问题的方法:
一个好的方法是窗口索引。每个时间范围(可能每天一次或 > 每周)都会为河流创建一个新索引,并添加到别名中。旧的 > 索引将在一段时间后被删除。此维护类似于 >logstash 索引,但它超出了河流的范围。
我的问题是,这意味着什么?
假设我在名为 table1 的数据库中有数百万行的表,我的尝试如下:
- 创建名为river1 的河流,索引为1。index1 包含 table1 的索引行。Index1 添加到别名。
- table1 中的一些行在白天被删除,所以每天晚上我都会创建另一条名为 river2 的河流,其中 index2 仅包含 table1 中现在存在的内容。
- 从别名中删除旧的 index1 并将 index2 添加到别名。
- 删除旧的 index1。
那是正确的方法吗?