问题标签 [riak-search]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
solr - 有可用的 Riak Yokozuna 自定义 erlang 术语提取器吗?
我的基本要求实际上是 proplist,我想我可以为 application/erlangproplist 编写一个自定义提取器。
只是出于好奇,因为 Riak 是用 Erlang 编写的,是否有任何 Erlang 术语提取器已经可用?
我想这将是一个非常复杂的提取器,因为 Erlang 术语可以有多种形式,如元组、proplist 等。
erlang - RIAK riak-erlang-client 键值整数二进制 (::<<_|128>>)
我尝试使用 okeuday/uuid 库生成 <<_|128>> V4 UUID 并将其用作我的 RIAK 密钥来存储数据。
我使用 git://github.com/basho/riak-erlang-client.git 主版本。
当我使用二进制 int 作为键时,没有存储数据,也没有错误。当我将其修改为二进制字符串 uuid:uuid_to_string(uuid:get_v4()) 时,我的代码可以工作并且我可以存储数据。
我开始使用新的存储桶来避免键类型不匹配。
根据 basho 手册,我可以使用任何二进制值作为 KEY ???
我错了 ?
riak - 并行地图上的worker_limit_reached减少作业
我有 50 台主机试图在 Riak 上运行下面的 map reduce 作业。我收到以下错误,其中一些主机抱怨worker_limit
已到达。
寻找有关我是否可以调整系统以避免此错误的一些见解?找不到太多关于worker_limit
.
{"phase":0,"error":"[worker_limit_reached]","input":"{<<\"provisionentry\">>,<<\"R89Okhz49SDje0y0qvcnkK7xLH0\">>}","type":" result","stack":"[]"} with query MapReduce(path='/mapred', reply_headers={'content-length': '144', 'access-control-allow-headers': 'Content-Type ', 'server': 'MochiWeb/1.1 WebMachine/1.10.8 (that head fake, tho)', 'connection': 'close', 'date': 'Thu, 27 Aug 2015 00:32:22 GMT', 'access-control-allow-origin': '*', 'access-control-allow-methods': 'POST, GET, OPTIONS', 'content-type': 'application/json'}, verb='POST' , headers={'内容类型': 'application/json'}, data=MapReduceJob(inputs=MapReduceInputs(bucket='provisionentry', key=u'34245e92-ccb5-42e2-a1d9-74ab1c6af8bf', index='testid_bin'), query=[MapReduceQuery(map=MapReduceQuerySpec (语言='erlang',模块='datatools',函数='map_object_key_value'))]))
riak - Riak Yokuzuna Schema 上传、创建索引和搜索查询总是导致错误 60,56,27
java.util.concurrent.ExecutionException:com.basho.riak.client.core.netty.RiakResponseException:未知消息代码:com.basho.riak.client.core.FutureOperation.get(FutureOperation.java:260) 处的 56 .basho.riak.client.api.commands.CoreFutureAdapter.get(CoreFutureAdapter.java:52) 在 com.basho.riak.client.api.RiakCommand.execute(RiakCommand.java:89) 在 com.basho.riak.client .api.RiakClient.execute(RiakClient.java:293) at com.search.RiakSearch.main(RiakSearch.java:64) 原因:com.basho.riak.client.core.netty.RiakResponseException:未知消息代码:56在 com.basho.riak.client.core.netty.RiakResponseHandler.channelRead(RiakResponseHandler.java:52) 在 io.netty.channel.ChannelHandlerInvokerUtil.invokeChannelReadNow(ChannelHandlerInvokerUtil.java:84) 在 io.netty.channel。DefaultChannelHandlerInvoker.invokeChannelRead(DefaultChannelHandlerInvoker.java:153) 在 io.netty.channel.PausableChannelEventExecutor.invokeChannelRead(PausableChannelEventExecutor.java:86) 在 io.netty.channel.AbstractChannelHandlerContext.fireChannelRead(AbstractChannelHandlerContext.java:389) 在 io.netty.handler .codec.ByteToMessageDecoder.channelRead(ByteToMessageDecoder.java:243) at io.netty.handler.codec.ByteToMessageCodec.channelRead(ByteToMessageCodec.java:103) at io.netty.channel.ChannelHandlerInvokerUtil.invokeChannelReadNow(ChannelHandlerInvokerUtil.java:84) at io.netty.channel.PausableChannelEventExecutor.invokeChannelRead(PausableChannelEventExecutor.java:86) 在 io.netty.channel 的 io.netty.channel.DefaultChannelHandlerInvoker.invokeChannelRead(DefaultChannelHandlerInvoker.java:153)。AbstractChannelHandlerContext.fireChannelRead(AbstractChannelHandlerContext.java:389) at io.netty.channel.DefaultChannelPipeline.fireChannelRead(DefaultChannelPipeline.java:956) at io.netty.channel.nio.AbstractNioByteChannel$NioByteUnsafe.read(AbstractNioByteChannel.java:127) at io .netty.channel.nio.NioEventLoop.processSelectedKey(NioEventLoop.java:514) at io.netty.channel.nio.NioEventLoop.processSelectedKeysOptimized(NioEventLoop.java:471) at io.netty.channel.nio.NioEventLoop.processSelectedKeys(NioEventLoop .java:385) 在 io.netty.channel.nio.NioEventLoop.run(NioEventLoop.java:351) 在 io.netty.util.concurrent.SingleThreadEventExecutor$2.run(SingleThreadEventExecutor.java:116) 在 io.netty.util .internal.chmv8.ForkJoinTask$RunnableExecuteAction.exec(ForkJoinTask.java:1412) 在 io.netty.util。internal.chmv8.ForkJoinTask.doExec(ForkJoinTask.java:280) 在 io.netty.util.internal.chmv8.ForkJoinPool$WorkQueue.runTask(ForkJoinPool.java:877) 在 io.netty.util.internal.chmv8.ForkJoinPool。扫描(ForkJoinPool.java:1706)在 io.netty.util.internal.chmv8.ForkJoinPool.runWorker(ForkJoinPool.java:1661)在 io.netty.util.internal.chmv8.ForkJoinWorkerThread.run(ForkJoinWorkerThread.java:126)
spring - Name Search on Solr
Apologies if I am posting a duplicated question, if so please point me to original question.
I am a solr novice and trying to achieve ordered word name search using solr.I am expecting following response from solr
I am generating queries using MethodName using spring data solr. Please help me how I should form my schema to index this data and what filters I should use ?
Also guide me how to form the queries using methodName using spring data solr from appropriate result.
python - Riak,如何删除已在使用的索引?
我愿意使用 python 库删除已在存储桶上使用的索引:
但我得到这个错误:
我明白了,我需要先删除我的存储桶和我的索引之间的绑定。所以我首先尝试禁用search_index
存储桶上的属性:
如果没有成功,每次 HTTP 错误都会Error setting bucket properties.
被库转换为“”。
我仍然可以分配另一个 riak-search 索引,但我不想强调我不会使用的 riak 集群索引的东西。
有没有办法search_index
使用 python 库从存储桶配置中删除?
riak - 使用 riak search 查找和更新匹配的文档
riak-search
搜索需要更正的文档然后更新它们的正确方法是什么?按照设计,riak-search 是一个索引,它可能不会粘在 riak-kv 内容上。我除了在重型检查/写入操作中我的索引与我的 riak-kv 内容不匹配。
我依靠 riak-search 来限制对有限数量的匹配条目的读/写操作。
我真的无法使用这种算法进行操作:
我看到很多问题:
- 首先,随着 riak-search 的追赶,它不会找到我更改的第一个文档,从而破坏了我的分页。
- 从最后开始分页,是一个诱人的选择,但它会因此而给 solr 带来压力,或者达到
max_search_results
极限 - 测试
num_found
不是打破循环的好方法,我很确定。
应该在开始编辑之前加载所有 riak-kv 键吗?是否有合适的算法/方法来满足我的需求?
编辑:
我的用例如下。我存储文本文档,其中包含来自我的字符串标记器算法的一系列术语,因为任何机器学习系统都会随着时间的推移而发展并变得更好。字符串标记器除了创建一个词云之外什么都不做。
我的存储桶类型不断增长,我需要从以前的标记器版本修补旧术语数组。为了实现这一点,我愿意搜索旧文档或包含我知道在我的新标记器版本中更正的错误标记的文档。
所以,我的搜索查询是:
- 术语:badtoken
- 创建日期:[2000-11-01 至 2014-12-01]
使用日期不是问题,但使用令牌是。因为从文档中删除 badtoken 将在几秒钟内更改 solr 索引,同时仍在搜索“badtoken”。它会改变我当前的分页,让我错过文档。
目前,我放弃了使用索引并简单地遍历整个存储桶。
riak - 如何使现有数据被新创建的索引索引
我创建了一个新的 solr 架构。我已经从新模式创建了一个新索引。我有一个现有的存储桶类型,其中存在数据。如何使用创建的新索引对现有数据进行索引?
solr - 通过 Xinclude 包含 SolrConfig
我目前在 Riak KV 服务器中使用 Solr 实现。关于 Riak 的默认设置,为了不担心任何软件升级,我需要在我的核心 SolrConfig.xml 中包含额外的配置。我将通过 Ansible 命令以编程方式执行此操作。我想在出厂设置 solrconfig.xml 中添加尽可能少的行。
我需要在我的配置中包含一堆<searchComponent>
和<requestHandler>
,因为我希望使用这种模式:
配置文件如下所示:
不幸的是,Xerces 不支持xpointer()
模式,并且作为element()
唯一的接受元素索引,并且需要与包含容器有子容器一样多的插入。
我怎样才能有条不紊地实现这种包容?
- 从 xerces 切换到另一个 xmlparser 是否容易?我必须提醒您,我不想尽可能多地更改供应商解决方案。
- 在 SolrConfig 语法中,可能有一个中性元素允许我被包含在配置中(例如 /config/NEUTRALMAGICTAG/requestHandler 被解释为 /config/requestHandler )
- 我应该放弃并忘记 XInclude 并通过纯 ansible 文件编辑工作吗?
java - Java mapreduce 和搜索 Riak
我看到了 Riak erlang 和 JS mapreduce 的例子。但我是一个 JAVA 人 :),喜欢用 JAVA 来做。此外,JS mapreduce 已被弃用。
- 有没有办法在Java中做到这一点?请提供样品。
- 我还在寻找 Riak 2.0 Search 的 Java 示例。
在 Riak 文档中,对于 riak-search 来说,步骤看起来很大。这可能看起来像一本用于 mapreduce 和搜索的小食谱。可以用实际步骤和一个例子来总结吗?
问题
我尝试了 github 中的步骤,以下是我所看到的: