我正在尝试重新索引数据并根据源文档中的字段进行一些计算。我已经使用摄取管道来丰富带有 geo_point 的文档,并且还想计算一些其他值。
我遇到的问题是源数据抛出一个错误,说它不能被强制转换。这里有详细信息:
原始(来自 ML csv 输入):
"_source": {
"Time": "18.06.2017 17:37:32",
"Weight (kg)": 286000,
"People": 2,
"Seats": "2"}
但是,使用 ML 完成的导入清楚地说明了以下内容:
{
"convert": {
"field": "Seats",
"type": "long",
"ignore_missing": true
}
},{
"convert": {
"field": "People",
"type": "long",
"ignore_missing": true
}
}
传入的原始数据是一致的,所有值都是严格的数字,没有引号等(前 3 个是重量、座位和人数:
66990;189;172;0;0;0;0;0
为了澄清,稍后索引的映射/映射模板也显示了正确的类型:
"People": {
"type": "long"
},
"Seats": {
"type": "long"
},
现在,当我使用 Kibana 脚本字段时,我可以计算如下:
if (doc['Seats'].value == 0)
{ return 0 } else
{
long utilization = (doc["People"].value * 100)/doc["Seats"].value;
return utilization
}
一切正常,我得到了计算的利用率。
当我尝试对摄取管道中的脚本执行相同操作时,如下所示:
"caused_by" : {
"type" : "class_cast_exception",
"reason" : "cannot explicitly cast float [java.lang.String] to byte"
}
我使用的代码如下:
"script": {
"if": "!(ctx.Seats=0) && !(ctx.Seats==null)",
"lang": "painless",
"source": "ctx.utilization = (float)ctx.People*100.0/(float)ctx.Seats"
}
我的问题是:
- 为什么 ML 摄取行为不同(来自 csv 的原始数据完全相同,只有整数)
- 我可以在摄取管道中做些什么来完成它
- 是 kibana 索引模式方式与摄取管道一样高效,还是我应该在负载等方面坚持使用摄取管道。
感谢您的帮助和提示。
知助