我正在尝试通过使用直接运行器来计算 kafka 消息密钥。
如果我在 ReadFromKafka 中输入 max_num_records =20,我可以看到打印或输出为文本的结果。喜欢:
('2102', 5)
('2706', 5)
('2103', 5)
('2707', 5)
但是如果没有 max_num_records,或者如果 max_num_records 大于 kafka 主题中的消息数,程序会继续运行但没有输出。如果我尝试使用 beam.io.WriteToText 进行输出,则会创建一个空的临时文件夹,例如:beam-temp-StatOut-d16768eadec511eb8bd897b012f36e97
终端显示:
2.30.0: Pulling from apache/beam_java8_sdk
Digest: sha256:720144b98d9cb2bcb21c2c0741d693b2ed54f85181dbd9963ba0aa9653072c19
Status: Image is up to date for apache/beam_java8_sdk:2.30.0
docker.io/apache/beam_java8_sdk:2.30.0
如果我将 'enable.auto.commit': 'true' 放入 kafka 消费者配置中,则消息已提交,同一组中的其他客户端无法读取它们,因此我认为它正在成功读取,只是没有处理或输出。
我尝试了固定时间,滑动时间窗口,有或没有不同的触发器,没有任何变化。
尝试了 flink runner,得到了与直接 runner 相同的结果。
不知道我做错了什么,有帮助吗?
环境:centos 7
蟒蛇
蟒蛇 3.8.8
java 1.8.0_292
梁 2.30
代码如下:
direct_options = PipelineOptions([
"--runner=DirectRunner",
"--environment_type=LOOPBACK",
"--streaming",
])
direct_options.view_as(SetupOptions).save_main_session = True
direct_options.view_as(StandardOptions).streaming = True
conf = {'bootstrap.servers': '192.168.75.158:9092',
'group.id': "g17",
'enable.auto.commit': 'false',
'auto.offset.reset': 'earliest'}
if __name__ == '__main__':
with beam.Pipeline(options = direct_options) as p:
msg_kv_bytes = ( p
| 'ReadKafka' >> ReadFromKafka(consumer_config=conf,topics=['LaneIn']))
messages = msg_kv_bytes | 'Decode' >> beam.MapTuple(lambda k, v: (k.decode('utf-8'), v.decode('utf-8')))
counts = (
messages
| beam.WindowInto(
window.FixedWindows(10),
trigger = AfterCount(1),#AfterCount(4),#AfterProcessingTime
# allowed_lateness=3,
accumulation_mode = AccumulationMode.ACCUMULATING) #ACCUMULATING #DISCARDING
# | 'Windowsing' >> beam.WindowInto(window.FixedWindows(10, 5))
| 'TakeKeyPairWithOne' >> beam.MapTuple(lambda k, v: (k, 1))
| 'Grouping' >> beam.GroupByKey()
| 'Sum' >> beam.MapTuple(lambda k, v: (k, sum(v)))
)
output = (
counts
| 'Print' >> beam.ParDo(print)
# | 'WriteText' >> beam.io.WriteToText('/home/StatOut',file_name_suffix='.txt')
)