我们已经在 Kubernetes 集群中部署了 Confluent Platform 6.0。我通过 Kafka REST api 创建了一个 Kafka 主题“test-topic-1”。现在我正在尝试向该主题发布一条简单的 AVRO 消息。
curl --location --request POST 'https://kafka-rest-master.k8s.hip.com.au/topics/test-topic-1' \
--header 'Content-Type: application/vnd.kafka.avro.v2+json' \
--header 'Accept: application/vnd.kafka.v2+json' \
--data-raw '{"value_schema":{"type":"record","name":"User","fields":[{"name":"name","type":"string"}]},"records":[{"value":{"name":"testUser"}}]}'
我收到此请求的 500 错误响应,
{"error_code":500,"message":"Internal Server Error"}
当我检查 kafka rest pod 的日志时,我可以看到以下错误,
错误请求失败并出现异常(io.confluent.rest.exceptions.DebuggableExceptionMapper)com.fasterxml.jackson.databind.exc.MismatchedInputException:无法反序列化
java.lang.String
[来源:(org.glassfish.jersey.message.internal .ReaderInterceptorExecutor$UnCloseableInputStream); 行:1,列:17](通过参考链:io.confluent.kafkarest.entities.v2.SchemaTopicProduceRequest["value_schema"])在 com.fasterxml.jackson.databind.exc.MismatchedInputException.from(MismatchedInputException.java: 59) 在 com.fasterxml.jackson.databind.DeserializationContext.reportInputMismatch(DeserializationContext.java:1445)
我是否按照正确的步骤将 AVRO 消息发布到新创建的 Kafka 主题?如果是这样,这可能是什么问题?