我们正在测试将 flink 用于 IOT 数据处理系统,当我尝试将简单函数映射到流上然后将结果写回 Kafka 时遇到错误。不幸的是,它不提供行号
...
File "pyflink/fn_execution/coder_impl_fast.pyx", line 555, in pyflink.fn_execution.coder_impl_fast.
FlattenRowCoderImpl._encode_field_simple
TypeError: an integer is required
当我查找此错误时,我没有找到任何有关 pyflink 的信息,尽管从其他项目中弹出的此错误来看,它们似乎指向 python 版本不匹配。在这种情况下,我可以看到 Flink 在我当前的虚拟环境中正确使用了 python,所以我不确定还要检查什么。我的代码如下。我能够运行一个从 Kafka 读取并打印的简单打印 flink 作业,并且最初插入 Kafka 的数据也是从 flink 作业产生的,所以我知道我至少可以在 Kafka 和 Flink 之间进行通信,进行序列化并正确反序列化。任何有关下一步调查内容的指示都会非常有帮助。
def process_test_data():
print("processing test data with a flink job")
env = StreamExecutionEnvironment.get_execution_environment()
env.add_jars(KAFKA_CONNECTOR_JAR)
input_type = Types.ROW_NAMED(['id', 'string'], [Types.INT(), Types.STRING()])
output_type = Types.ROW_NAMED(['id', 'val', 'string'],
[Types.LONG(), Types.LONG(), Types.STRING()])
deserialization_schema = JsonRowDeserializationSchema.builder() \
.type_info(type_info=input_type).build()
kafka_source = FlinkKafkaConsumer(
topics=KAFKA_SOURCE_TOPIC,
deserialization_schema=deserialization_schema,
properties={
'bootstrap.servers': KAFKA_SERVER_URL,
'group.id': KAFKA_SOURCE_GROUP
})
kafka_source.set_start_from_earliest()
ds = env.add_source(kafka_source)
def sample_task(row):
return Row(id=row['id'], val=row['id'] * 1000, string=row['string']+'_modified')
ds = ds.map(sample_task, output_type=output_type) \
.key_by(lambda row: row['id'])
# Stream the results back to a Kafka topic
serialization_schema = JsonRowSerializationSchema.builder() \
.with_type_info(type_info=output_type).build()
#serialization_schema = SimpleStringSchema()
kafka_sink = FlinkKafkaProducer(
topic=KAFKA_SOURCE_TOPIC,
serialization_schema=serialization_schema,
producer_config={
'bootstrap.servers': KAFKA_SERVER_URL,
'group.id': KAFKA_SOURCE_GROUP
})
ds.add_sink(kafka_sink)
env.execute('datastream_kafka_demo')
print("data processing complete")