1

我希望将来自 KStream 的窗口批次输出组合在一起并将它们写入辅助存储。

我期待看到.punctuate()大约每 30 秒被调用一次。我得到的反而被保存在这里

(原始文件长达数千行)

摘要 -.punctuate()看似随机然后反复调用。它似乎不遵守通过ProcessorContext.schedule()设置的值。


编辑:

.punctuate()相同代码的另一次运行大约每四分钟产生一次调用。这次我没有看到疯狂的重复值。来源没有变化 - 只是结果不同。

使用以下代码:

主要的

StreamsConfig streamsConfig = new StreamsConfig(config);
KStreamBuilder kStreamBuilder = new KStreamBuilder();
KStream<String, String> lines = kStreamBuilder.stream(TOPIC);

lines.process(new BPS2());

KafkaStreams kafkaStreams = new KafkaStreams(kStreamBuilder, streamsConfig);

kafkaStreams.start();

处理器

public class BP2 extends AbstractProcessor<String, String> {
    private static final Logger LOGGER = LoggerFactory.getLogger(BP2.class);

    private ProcessorContext context;
    private final long delay;
    private final ArrayList<String> values;

    public BP2(long delay) {
        LOGGER.debug("BatchProcessor() constructor");
        this.delay = delay;

       values = new ArrayList<>();

    }

    @Override
    public void process(String s, String s2) {
        LOGGER.debug("batched processor s:{}   s2:{}", s, s2);

        values.add(s2);
    }

    @Override
    public void init(ProcessorContext context) {
        LOGGER.info("init");

        super.init(context);

        values.clear();

        this.context = context;
        context.schedule(delay);
    }

    @Override
    public void punctuate(long timestamp) {
        super.punctuate(timestamp);

        LOGGER.info("punctuate   ts: {}   count: {}", timestamp, values.size());

        context().commit();
    }
}

处理器供应商

public class BPS2 implements ProcessorSupplier<String, String> {
    private static final Logger LOGGER = LoggerFactory.getLogger(BPS2.class);

    @Override
    public Processor<String, String> get() {
        try {
            return new BP2(30000);
        } catch(Exception exception) {
            LOGGER.error("Unable to instantiate BatchProcessor()", exception);
            throw new RuntimeException();
        }
    }
}

编辑:

为了确保我的调试器不会减慢它的速度,我构建了它并在与我的 kafka 进程相同的盒子上运行它。这一次,它甚至没有尝试延迟 4 分钟或更长时间 - 在几秒钟内,它就向.punctuate(). 其中许多(大多数)没有对.process().

4

3 回答 3

6

更新:这部分答案适用于 Kafka 0.11 或更早版本(对于 Kafka 1.0 及更高版本,请参见下文)

在 Kafka Streams 中,标点符号基于流时间不是 系统时间(也称为处理时间)。

每个默认流时间event-time,即嵌入在 Kafka 记录本身中的时间戳。由于您没有设置非默认值TimestampExtractor(请参阅http://docs.confluent.io/current/streams/developer-guide.html#optional-configuration-parameterstimestamp.extractor ) ,因此调用仅取决于事件的过程关于您处理的记录的时间。因此,如果您需要多分钟来处理“30 秒”(事件时间)的记录,则调用频率将低于 30 秒(挂钟时间)...punctuatepunctuate

这也可以解释您的不规则呼叫模式(即突发和长时间延迟)。如果您的数据事件时间确实“跳跃”,并且您要处理的数据已经在您的主题中完全可用,那么 Kafka Streams 也会在内部维护的 stream-time方面“跳跃” 。

我假设您可以通过使用解决您的问题WallclockTimestampExtractor(请参阅http://docs.confluent.io/current/streams/developer-guide.html#timestamp-extractor

还要提一件事:流时间只有在处理数据时才会提前——如果您的应用程序到达输入主题的末尾并等待数据,punctuate则不会被调用。即使您使用WallclockTimestampExtractor.

Btw:目前有关于Streams的标点行为的讨论:https ://github.com/apache/kafka/pull/1689

Kafka 1.0 及更高版本的答案

从 Kafka 1.0 开始,可以根据挂钟时间或事件时间注册标点符号:https ://kafka.apache.org/10/documentation/streams/developer-guide/processor-api.html#id2

于 2016-08-31T20:05:55.990 回答
0

好的 - 我认为这是 Kafka 中的一个错误。

原因如下:

在我最初的测试中,我使用一台机器来运行ProducerConsumer。我会运行 Producer 几分钟以生成一些测试数据,然后运行我的测试。这会给出我最初发布的奇怪输出。

然后我决定将 Producer 推到后台并让它运行。现在我看到调用之间 100% 完美的 30 秒间隔.punctuate()。没有更多的问题。

换句话说 - 如果 kafka 服务器没有处理任何入站数据,那么它似乎与运行KStreams进程不一致。

于 2016-08-31T15:06:41.920 回答
0

刚刚读完这个问题的答案,我认为它也能回答你的问题。它的要点是:

  1. 流消费者对记录执行轮询
  2. 所有返回的记录都被完全处理。
  3. 然后使用配置的延迟安排标点回调。

关键是 punctuate 不是一个固定的时间间隔事件,#2 需要多长时间的变化将导致 punctuate 执行周期的等效变化。

....但是阅读那个链接,他说得比我好。

于 2016-08-31T14:25:37.280 回答