对于数据在生成后立即发送到 Druid 的情况,一切都很好(就像在物联网中一样)。爱它。
但现在我有不同的情况,源于迟到的数据输入。
最终用户可以离线(失去互联网连接),数据存储在她的手机中,只有在她重新上线后才会发送给 Druid。
这意味着,当她恢复互联网时,发送给 Druid 的数据(例如通过 Tranquility 服务器)将被 Druid 拒绝(因为 Druid 实时不接受过去的数据)。
当然,我可以将时间戳设置为数据发送到服务器的时间。但这会歪曲报告......,除非......,如果我添加另一个字段(比如说:generate_ts),并将其声明为另一个维度。
但是,我不会从您在 Druid (?) 中免费获得的基于时间的自动汇总中受益。我将不得不使用 groupBy (将 generate_ts 作为维度之一),如下所示:
{
"queryType": "groupBy",
"dataSource": "my_datasource",
"granularity": "none",
"dimensions": [
"city",
{
"type" : "extraction",
"dimension" : "generated_ts",
"outputName" : "dayOfWeek",
"extractionFn" : {
"type" : "timeFormat",
"format" : "EEEE"
}
}
],
...
}
我的问题是:
- 该方法有效吗?
- 如果是:罚款是多少?(我想这将是性能,但有多糟糕?)
谢谢,拉卡
--
针对以下 Ramkumar 的回复,后续问题:
我还是不太明白这批摄取:
假设事件 A。它在时间戳 3 生成,直到时间戳 15 才发送到服务器。
当它在时间戳 15 发送时,它具有以下值:{ts: 15, generated_ts: 3, metric1: 12, dimension1: 'a'}
他们的时间戳键是“ts”。
这是不准确的,理想的情况是 {ts: 3, generated_ts: 3, metric1: 12, dimension1: 'a'},但我必须指定 15 作为inserted_ts,以便 Tranquility 接受它。
现在,在批量摄取期间,我想修复它,现在它具有正确的 ts {ts: 3, generated_ts: 3, metric1: 12, dimension1: 'a'}。
问题:那我会有重复的事件吗?
或者......(我怀疑):指定时间间隔的批量摄取基本上会替换该间隔内的所有数据?(我希望是这样,那我就不用担心数据重复了)
附加说明(刚刚):我遇到了这个:https ://github.com/druid-io/tranquility/blob/master/docs/overview.md#segment-granularity-and-window-period
说的是:
我们在 Metamarkets 的方法是通过 Tranquility 实时发送我们所有的数据,但也通过在 S3 中存储副本并跟进夜间 Hadoop 批处理索引作业以重新摄取数据来降低这些风险。这使我们能够保证最终,每个事件在 Druid 中只表示一次。
所以......这是一次重新摄取,其含义(我猜)是完全替代的,对吧?