3

是否有可能使用 Akka Streams Kafka 获得关于 Kafka 主题的最后一条消息?我正在创建一个监听 Kafka 主题的 websocket,但目前它在我连接时检索所有先前的未红色消息。这可以加起来很多消息,所以我只对最后一条消息+任何未来消息感兴趣。(或只有未来的消息)

来源:

def source(): Flow[Any, String, NotUsed] = {
  val source = Consumer.plainSource(consumerSettings, Subscriptions.topics(MyTopic))
  Flow.fromSinkAndSource[Any, String](Sink.ignore, source.map(_.value)
}

消费者设置:

  @Provides
def providesConsumerSettings(@Named("kafkaUrl") kafkaUrl: String): ConsumerSettings[String, String] = {
  val deserializer = new StringDeserializer()
  val config = configuration.getOptional[Configuration]("akka.kafka.consumer")
    .getOrElse(Configuration.empty)

  ConsumerSettings(config.underlying, deserializer, deserializer)
    .withBootstrapServers(kafkaUrl)
    .withGroupId(GroupId)
}

我试过添加设置ConsumerSettings.withProperty(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, "latest")

哪个应该“自动将偏移重置为最新的偏移”,但它似乎没有任何效果。

4

1 回答 1

1

使用 David van Geest在这里非常简洁地描述的方法,我能够避免在客户端连接时获取任何上游数据

归结为在消费者上有一个 BroadcastHub:

val liveSource = Consumer.plainSource(consumerSettings, Subscriptions.topics(topic1, topic2))
.map(kafkaObject => utils.WebSockets.kafkaWrapper(kafkaObject.topic(), kafkaObject.value()))
.toMat(BroadcastHub.sink)(Keep.right)
.run()

并连接一个静态消费者吃掉所有上游数据

liveSource.to(Sink.ignore).run()

之后,这让我有一个 WebSocket 客户端订阅消费者收到的所有数据,如下所示:

def source(): Flow[Any, String, NotUsed] = {Flow.fromSinkAndSource(Sink.ignore, liveSource)}

或基于 KafkaTopic 过滤(或任何你想要的)

def KafkaSpecificSource(kafkaTopic: String): Flow[Any, String, NotUsed] = {
  Flow.fromSinkAndSource(Sink.ignore, liveSource.filter({
    x =>
      (Json.parse(x) \ "topic").asOpt[String] match {
        case Some(str) => str.equals(kafkaTopic)
        case None => false
      }
  }))
}

这并不能解决首次连接时向用户提供 x 数据量的问题,但我预见我们会为任何历史数据添加一个简单的数据库查询,并让 WebSocket 连接只关注直播数据。

于 2018-08-06T13:23:22.237 回答