1

我正在尝试使用单个流,处理传入的 json 格式并根据事件中的属性写入不同的流。例如,如果输入流包含如下内容:

{ "event_type" : "temperature",
  "json" : {    
            "type": "Temperature",
            "DeviceID":"xyz",
            "temperature": "32",
            "timestamp" :  "2019-03-19T12:37:43.356119Z"
            }
 }

另一个事件如下所示:

{ "event_type" : "location",
  "json" : {    
        "type": "GPS",
          "DeviceID":"xyz",
         "location": {"coordinates": [-73.856077, 40.848447]},
         "timestamp" :  "2019-09-22T00:00:00+05:30"
           }
 }

这两个事件都被推送到一个 http 端点(这是我面临的一个限制)

如何使用单个 http 源流、处理这些事件以及是否event_type插入temperaturetemperature_collectionmongo db 中以及是否event_type插入location到 mongo db 中的 location_collection?

  1. 是否可以使用单个流来执行此操作?

  2. 如果不是,我怎样才能避免编写多个端点,每个事件类型一个?

4

1 回答 1

0

是的,可以只定义一个流并使用Siddhi 过滤器路由每个流,

@source(type='http' , receiver.url='http://localhost:8000/SensorStream', 
    @map(type='json', fail.on.missing.attribute='false', 
        @attributes(eventType='$.event_type', type='$.json.type',deviceID='$.json.DeviceID', temperature='$.json.temperature', location='$.json.location', timestamp='$.json.timestamp' ) ) ) 
define stream SensorStream(eventType string, type string, deviceID string, temperature string, location string, timestamp string);

from SensorStream[eventType=='temperature']
select deviceID, temperature, timestamp  
insert into TemperatureStream;

from SensorStream[eventType=='location']
select deviceID, location, timestamp  
insert into LocationStream;

如上例所示,源映射属性“fail.on.missing.attribute”用于确保可以将不同格式与自定义映射一起映射到单个流。在事件到达端点后,流程然后使用过滤器根据属性的值进行划分。

于 2019-03-21T17:30:25.167 回答