问题标签 [spring-cloud-stream]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
spring-cloud-stream - Spring Cloud Stream 应用程序,Dispatcher 没有频道“unknown.channel.name”的订阅者
我正在测试 spring-cloud-starter-stream-kafka。下面出现错误。
我的 StreamApplication.java
日志处理器.java
PersonProcessor.java
我还可以看到输出:
接收人:hi 0 接收事件日志:0 接收事件日志:4 接收人:hi 4 接收事件日志:9 接收人:hi 9
谢谢。
spring - 将基于事件的spring cloud任务执行到消息源(即RabbitMQ,Kafka)
我是学习 Spring 云任务和 SCDF 的新手,所以问这个。
我想根据一个事件执行我的 SCT(比如将一条消息发布到 Rabbit MQ),所以我认为它可以通过两种方式完成:
创建一个从 RabbitMQ 轮询消息并将数据发送到流的源,现在创建一个从流中读取数据的接收器,一旦数据到达接收器(来自源流),任务就会启动。
不确定这是否可能?
其他方式可能是使用任务启动器。这里任务启动器将配置一个流,一个监听器将从 rabbitMQ 轮询消息。因此,当收到消息时,触发器将启动该过程,而 tasklauncher 将启动该任务。但是这里不确定我将如何将消息数据放入我的任务中?我是否必须将数据添加到 TaskLaunchRequest 中?
/li>
apache-kafka - 当目标系统关闭时,停止 Spring Cloud Stream @StreamListener 监听
我有一个从 Kafka 获取消息并调用目标系统来更新旧版 Oracle 数据库的应用程序。
我想启用一个场景,如果目标系统关闭,则将消息留在 Kafka 总线上,并且在给定的时间段内不处理它们。我正在考虑一些基于断路器 Hystrix 的解决方案,但我找不到任何机制来告诉 Spring Cloud Stream“停止”事件监听。我能想到的唯一其他选择是如果断路器打开,将这些消息传输到错误/重新处理主题,但这对我来说听起来像是一种反模式。我应该能够暂停系统处理事件,这是微服务应用程序中发布/订阅的全部优势。
任何帮助都将不胜感激。
spring-integration - 没有 spring-boot 的 Spring-cloud-stream 应用程序是否可行?
我正在尝试使用 spring-cloud-stream rabbitmq 但不使用 spring-boot 编写应用程序。当我这样做时,gradle dependencies
我看到云流依赖于 Spring Boot 模块。没有spring-boot可以使用spring-cloud-stream吗?有人可以指出我的任何例子吗?
spring-boot - SpringCloudStream - spring-core 版本失败
我开始使用 spring boot 玩 Spring Cloud Stream/App Starters。当我按照入门指南进行操作时,我在 mvn build 中收到以下错误:
pom.xml
属性文件
感谢您的帮助。
谢谢卡提克
rabbitmq - 如何在 Spring Cloud 数据流中使用 Rabbitmq binder
我有一个流,它会根据给定的时间间隔启动任务。我想与它一起使用rabbit binder,但我缺少提供rabbitmq 代理属性的语法。有人可以帮助我。
spring-cloud-stream - 如何配置日志目录
我们正在尝试使用 spring-cloud-dataflow 在开发环境中部署我们的微服务。每个应用程序都登录到 /tmp 目录,并将 /tmp 目录用作工作目录。
这会耗尽我们机器上可用的可悲磁盘空间。有没有办法配置这个?
我已经更改了 spring 云数据流,以便移动它的日志,并查看 /etc/init.d/spring-cloud-dataflow-server-local 但看不到任何帮助。
spring - Spring Cloud Stream Kafka 仅将标头添加到一个绑定
Spring Cloud Stream 的参考手册说您可以使用属性“spring.cloud.stream.kafka.binder.headers”来设置所有绑定的标头。有没有办法为特定绑定设置标题?例如,像这样:
spring-boot - messages published to all consumers with same consumer-group in spring-data-stream project
I got my zookeeper and 3 kafka broker running locally. I started one producer and one consumer. I can see consumer is consuming message.
I then started three consumers with same consumer group name (different ports since its a spring boot project). but what I found is that all the consumers are now consuming (receiving) messages. But I expect the message to be load-balanced in that only messages are not repeated across the consumers. I don't know what the problem is.
Here is my property file
Here the group is timerGroup.
consumer code : https://github.com/codecentric/edmp-sample-stream-sink
producer code : https://github.com/codecentric/edmp-sample-stream-source
apache-kafka - 春云流卡夫卡
我已经构建了一个生产者 spring 云流应用程序和 kafka 作为 binder。这是application.yml:
我有两个实例(在单个 jvm 上运行的同一个应用程序)作为消费者。这是application.yml:
我对 kafka 组的理解是,对于同一组中的消费者,消息只会被消费一次。假设,如果生产者应用程序产生消息 A,B 并且同一组中有两个消费者应用程序,消息 A 将由消费者 1 读取,消息 B、C 将由消费者 2 读取。但是,我的消费者正在消费相同消息。我的假设是错误的吗?