问题标签 [spring-cloud-stream]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
2 回答
5297 浏览

spring-cloud-stream - Spring Cloud Stream 应用程序,Dispatcher 没有频道“unknown.channel.name”的订阅者

我正在测试 spring-cloud-starter-stream-kafka。下面出现错误。

我的 StreamApplication.java

日志处理器.java

PersonProcessor.java

我还可以看到输出:

接收人:hi 0 接收事件日志:0 接收事件日志:4 接收人:hi 4 接收事件日志:9 接收人:hi 9

谢谢。

0 投票
2 回答
1268 浏览

spring - 将基于事件的spring cloud任务执行到消息源(即RabbitMQ,Kafka)

我是学习 Spring 云任务和 SCDF 的新手,所以问这个。

我想根据一个事件执行我的 SCT(比如将一条消息发布到 Rabbit MQ),所以我认为它可以通过两种方式完成:

  1. 创建一个从 RabbitMQ 轮询消息并将数据发送到流的源,现在创建一个从流中读取数据的接收器,一旦数据到达接收器(来自源流),任务就会启动。

    不确定这是否可能?

  2. 其他方式可能是使用任务启动器。这里任务启动器将配置一个流,一个监听器将从 rabbitMQ 轮询消息。因此,当收到消息时,触发器将启动该过程,而 tasklauncher 将启动该任务。但是这里不确定我将如何将消息数据放入我的任务中?我是否必须将数据添加到 TaskLaunchRequest 中?

    /li>
0 投票
1 回答
2062 浏览

apache-kafka - 当目标系统关闭时,停止 Spring Cloud Stream @StreamListener 监听

我有一个从 Kafka 获取消息并调用目标系统来更新旧版 Oracle 数据库的应用程序。

我想启用一个场景,如果目标系统关闭,则将消息留在 Kafka 总线上,并且在给定的时间段内不处理它们。我正在考虑一些基于断路器 Hystrix 的解决方案,但我找不到任何机制来告诉 Spring Cloud Stream“停止”事件监听。我能想到的唯一其他选择是如果断路器打开,将这些消息传输到错误/重新处理主题,但这对我来说听起来像是一种反模式。我应该能够暂停系统处理事件,这是微服务应用程序中发布/订阅的全部优势。

任何帮助都将不胜感激。

0 投票
1 回答
572 浏览

spring-integration - 没有 spring-boot 的 Spring-cloud-stream 应用程序是否可行?

我正在尝试使用 spring-cloud-stream rabbitmq 但不使用 spring-boot 编写应用程序。当我这样做时,gradle dependencies我看到云流依赖于 Spring Boot 模块。没有spring-boot可以使用spring-cloud-stream吗?有人可以指出我的任何例子吗?

0 投票
1 回答
471 浏览

spring-boot - SpringCloudStream - spring-core 版本失败

我开始使用 spring boot 玩 Spring Cloud Stream/App Starters。当我按照入门指南进行操作时,我在 mvn build 中收到以下错误:

pom.xml

属性文件

感谢您的帮助。

谢谢卡提克

0 投票
1 回答
2184 浏览

rabbitmq - 如何在 Spring Cloud 数据流中使用 Rabbitmq binder

我有一个流,它会根据给定的时间间隔启动任务。我想与它一起使用rabbit binder,但我缺少提供rabbitmq 代理属性的语法。有人可以帮助我。

0 投票
1 回答
493 浏览

spring-cloud-stream - 如何配置日志目录

我们正在尝试使用 spring-cloud-dataflow 在开发环境中部署我们的微服务。每个应用程序都登录到 /tmp 目录,并将 /tmp 目录用作工作目录。

这会耗尽我们机器上可用的可悲磁盘空间。有没有办法配置这个?

我已经更改了 spring 云数据流,以便移动它的日志,并查看 /etc/init.d/spring-cloud-dataflow-server-local 但看不到任何帮助。

0 投票
1 回答
442 浏览

spring - Spring Cloud Stream Kafka 仅将标头添加到一个绑定

Spring Cloud Stream 的参考手册说您可以使用属性“spring.cloud.stream.kafka.binder.headers”来设置所有绑定的标头。有没有办法为特定绑定设置标题?例如,像这样:

0 投票
1 回答
307 浏览

spring-boot - messages published to all consumers with same consumer-group in spring-data-stream project

I got my zookeeper and 3 kafka broker running locally. I started one producer and one consumer. I can see consumer is consuming message.

I then started three consumers with same consumer group name (different ports since its a spring boot project). but what I found is that all the consumers are now consuming (receiving) messages. But I expect the message to be load-balanced in that only messages are not repeated across the consumers. I don't know what the problem is.

Here is my property file

Here the group is timerGroup.

consumer code : https://github.com/codecentric/edmp-sample-stream-sink

producer code : https://github.com/codecentric/edmp-sample-stream-source

0 投票
1 回答
711 浏览

apache-kafka - 春云流卡夫卡

我已经构建了一个生产者 spring 云流应用程序和 kafka 作为 binder。这是application.yml:

我有两个实例(在单个 jvm 上运行的同一个应用程序)作为消费者。这是application.yml:

我对 kafka 组的理解是,对于同一组中的消费者,消息只会被消费一次。假设,如果生产者应用程序产生消息 A,B 并且同一组中有两个消费者应用程序,消息 A 将由消费者 1 读取,消息 B、C 将由消费者 2 读取。但是,我的消费者正在消费相同消息。我的假设是错误的吗?