我使用Kafka
andZookeeper
作为我的数据管道的主要组件,它每秒处理数千个请求。我正在使用Samza
实时数据处理工具来处理我需要对数据进行的小转换。
我的问题是我的一个消费者(比如说ConsumerA
)消费了几个主题Kafka
并处理它们。基本上是对所消化的主题进行总结。我还想将这些数据作为一个单独的主题推送到 Kafka,但这会在 Kafka 和我的组件上形成一个循环。
这让我很困扰,这是 Kafka 中想要的架构吗?
我是否应该在 from 中进行所有处理Samza
并仅将摘要(摘要)信息存储到Kafka
from Samza
。但是我要做的处理量非常大,这就是为什么我想为它使用一个单独的组件(ComponentA
)。我想我的问题可以推广到所有类型的数据管道。
那么,让组件成为数据管道中的消费者和生产者是一种好的做法吗?