1

我想使用 Apache Beam 中的流管道(并在 Google DataFlow 上运行)来实现以下场景:

  1. 从 Pub/Sub 读取消息(JSON 字符串)
  2. 反序列化 JSON
  3. 使用自定义字段(比如timeStamp)作为处理元素的时间戳值
  4. 应用固定窗口60 seconds
  5. 从元素中提取密钥并按密钥分组
  6. <<进行进一步处理>>

我尝试使用 Java(Scala) 和 Python 解决这个问题,但没有一个解决方案有效。

  1. Python解决方案
# p is beam.Pipeline()
_ = (p | beam.io.ReadFromPubSub(subscription="my_sub")
        | beam.Map(add_timestamping)
        | beam.WindowInto(window.FixedWindows(60))
        | beam.Map(lambda elem: elem) # exracting the key somehow, not relevant here
        | beam.GroupByKey()
        # (...)
        | beam.io.WriteToPubSub("output_topic")
        )
p.run()

add_timestamping根据文档功能:

def add_timestamping(elem):
    import json
    import apache_beam as beam
    msg = json.loads(elem)
    unix_timestamp = msg['timeStamp'] / 1000
    return beam.window.TimestampedValue(msg, unix_timestamp)

Python解决方案的输出

  1. 使用时DirectRunner,会发出窗口,并且窗口本身或多或少是合适的,具体取决于延迟。
  2. 使用时DataFlowRunner会跳过所有消息,并在 DataFlow UI 中显示计数器:dropDueToLateness

  1. Java / Scala 解决方案 (我使用过Scio,但这也发生在 Java 中的干净 Beam SDK 中)
sc.pubsubSubscription[String]("my_sub")
    .applyTransform(ParDo.of(new CustomTs()))
    .withFixedWindows(Duration.standardSeconds(60))
    .map(x => x) // exracting the key somehow, not relevant here
    .groupByKey
    // (...)
    .saveAsPubsub("output_topic")

根据文档添加自定义时间戳:

import io.circe.parser._
class CustomTs extends DoFn[String, String] {
  @ProcessElement
  def processElement(@Element element: String, out: DoFn.OutputReceiver[String]): Unit = {
    val json = parse(element).right.get
    val timestampMillis: Long = json.hcursor.downField("timeStamp").as[Long].getOrElse(0)
    out.outputWithTimestamp(element, new Instant(timestampMillis))
  }
}

Java / Scala 解决方案的输出

Exception in thread "main" org.apache.beam.sdk.Pipeline$PipelineExecutionException: 
java.lang.IllegalArgumentException:
 Cannot output with timestamp 2019-03-02T00:51:39.124Z. 
 Output timestamps must be no earlier than the timestamp of the current input
 (2019-03-28T14:57:53.195Z) minus the allowed skew (0 milliseconds).

我不能DoFn.getAllowedTimestampSkew在这里使用,因为它已经被弃用了,而且我不知道将发送什么范围的历史数据。


处理历史数据的能力对我的项目至关重要(这些数据将从某个商店发送到 Pub/Sub)。管道必须同时处理当前数据和历史数据。

我的问题是: 如何使用自定义时间戳处理数据,并能够在使用 Beam API 定义的窗口上进行操作?

4

1 回答 1

1

如果您能够在 PubSub 的插入点提取时间戳,您将能够使用用户指定的时间戳作为元数据。有关如何操作的信息记录在 1.9 SDK 下。

https://cloud.google.com/dataflow/model/pubsub-io#timestamps-and-record-ids

“您可以使用用户指定的时间戳来精确控制从 Cloud Pub/Sub 读取的元素如何分配给 Dataflow 管道中的窗口。”

由于 1.9 已弃用,因此在 2.11 中您将需要https://beam.apache.org/releases/javadoc/2.11.0/org/apache/beam/sdk/io/gcp/pubsub/PubsubIO.Read.html#withTimestampAttribute- java.lang.String-

于 2019-03-29T07:10:08.337 回答