2

我正在使用具有查询模式的 jdbc 源连接器,似乎没有指定的表名,在模式注册表中为记录键和记录值注册的模式具有空模式名称,并且被分配了默认名称“ConnectDefault”如 Confluent 的 AvroData 类中定义的那样https://github.com/confluentinc/schema-registry/blob/master/avro-converter/src/main/java/io/confluent/connect/avro/AvroData.java

使用生成的 avro 源和 SpecificAvroSerde 运行 Kafka Streams 应用程序时,出现错误:

Exception in thread "streams-app-6e39ebfd-db14-49bc-834f-afaf108a6d25-StreamThread-1" org.apache.kafka.streams.errors.StreamsException: Failed to deserialize value for record. topic=topic-name, partition=0, offset=0
  at org.apache.kafka.streams.processor.internals.SourceNodeRecordDeserializer.deserialize(SourceNodeRecordDeserializer.java:46)
  at org.apache.kafka.streams.processor.internals.RecordQueue.addRawRecords(RecordQueue.java:84)
  at org.apache.kafka.streams.processor.internals.PartitionGroup.addRawRecords(PartitionGroup.java:117)
  at org.apache.kafka.streams.processor.internals.StreamTask.addRecords(StreamTask.java:474)
  at org.apache.kafka.streams.processor.internals.StreamThread.addRecordsToTasks(StreamThread.java:642)
  at org.apache.kafka.streams.processor.internals.StreamThread.runLoop(StreamThread.java:548)
  at org.apache.kafka.streams.processor.internals.StreamThread.run(StreamThread.java:519)
Caused by: org.apache.kafka.common.errors.SerializationException: Error deserializing Avro message for id 2
Caused by: org.apache.kafka.common.errors.SerializationException: Could not find class io.confluent.connect.avro.ConnectDefault specified in writer's schema whilst finding reader's schema for a SpecificRecord.

我试图从主题中发布一个新版本的键和值模式,并使用表名作为模式名,并删除\"name\":\"ConnectDefault\",\"namespace\":\"io.confluent.connect.avro\"没有运气的属性的原始版本。我是否缺少名为 ConnectDefault 的类,或者我可以在源连接器的某处指定没有命名空间的架构名称?


我的卡夫卡流配置:

streamsConfig.put(StreamsConfig.APPLICATION_ID_CONFIG, "streams-app");
streamsConfig.put(StreamsConfig.BOOTSTRAP_SERVERS_CONFIG, "localhost:9092");
streamsConfig.put(AbstractKafkaAvroSerDeConfig.SCHEMA_REGISTRY_URL_CONFIG, "http://localhost:8081");
streamsConfig.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, "earliest");

我的 Kafka 连接配置:

name=source
connector.class=io.confluent.connect.jdbc.JdbcSourceConnector
tasks.max=1
connection.url=jdbc:oracle:thin:
mode=incrementing
incrementing.column.name=id
query=QUERY
topic.prefix=topic-name

transforms=InsertKey, ExtractId
transforms.InsertKey.type=org.apache.kafka.connect.transforms.ValueToKey
transforms.InsertKey.fields=id
transforms.ExtractId.type=org.apache.kafka.connect.transforms.ExtractField$Key
transforms.ExtractId.field=id
key.converter=org.apache.kafka.connect.storage.StringConverter
key.converter.schemas.enable=false

value.converter=io.confluent.connect.avro.AvroConverter
value.converter.schemas.enable=true
value.converter.schema.registry.url=http://localhost:8081
4

2 回答 2

2

问题在于,在查询模式下,jdbc 源连接器的模式名称默认为 null。https://github.com/confluentinc/kafka-connect-jdbc/issues/90

看起来这可以通过在具有 SetSchemaMetadata 转换的源连接器中添加带有 SMT(单消息转换)的模式名称来解决。https://cwiki.apache.org/confluence/display/KAFKA/KIP-66%3A+Single+Message+Transforms+for+Kafka+Connect

transforms=setValueSchema
transforms.setValueSchema.type=org.apache.kafka.connect.transforms.SetSchemaMetadata$Value
transforms.setValueSchema.schema.name=io.confluent.connect.avro.ConnectDefault
于 2017-12-01T20:11:13.423 回答
-1

默认情况下,kafka 将在 ConnectDefault 中搜索 key schema。

只需创建名称为“ConnectDefault”的关键模式类,并将该类保存在包“io.confluent.connect.avro”中。

于 2020-02-17T19:48:41.300 回答