0

我们已经在 Kubernetes 集群中部署了 Confluent Platform 6.0。我通过 Kafka REST api 创建了一个 Kafka 主题“test-topic-1”。现在我正在尝试向该主题发布一条简单的 AVRO 消息。

curl --location --request POST 'https://kafka-rest-master.k8s.hip.com.au/topics/test-topic-1' \
--header 'Content-Type: application/vnd.kafka.avro.v2+json' \
--header 'Accept: application/vnd.kafka.v2+json' \
--data-raw '{"value_schema":{"type":"record","name":"User","fields":[{"name":"name","type":"string"}]},"records":[{"value":{"name":"testUser"}}]}'

我收到此请求的 500 错误响应,

{"error_code":500,"message":"Internal Server Error"}

当我检查 kafka rest pod 的日志时,我可以看到以下错误,

错误请求失败并出现异常(io.confluent.rest.exceptions.DebuggableExceptionMapper)com.fasterxml.jackson.databind.exc.MismatchedInputException:无法反序列化java.lang.String[来源:(org.glassfish.jersey.message.internal .ReaderInterceptorExecutor$UnCloseableInputStream); 行:1,列:17](通过参考链:io.confluent.kafkarest.entities.v2.SchemaTopicProduceRequest["value_schema"])在 com.fasterxml.jackson.databind.exc.MismatchedInputException.from(MismatchedInputException.java: 59) 在 com.fasterxml.jackson.databind.DeserializationContext.reportInputMismatch(DeserializationContext.java:1445)

我是否按照正确的步骤将 AVRO 消息发布到新创建的 Kafka 主题?如果是这样,这可能是什么问题?

4

1 回答 1

1

您的 AVRO 模式定义是错误的。应该定义如下

{
  "type": "record",
  "name": "recordName",
  "namespace": "namespace",
  "doc": "description",
  "fields": [
    {
      "name": "key",
      "type": {
        "type": "string",
        "avro.java.string": "String"
      }
    }
  ]
}

或者

"fields": [
  {
    "name": "fiedName",
    "type": "string"
  },
]
于 2021-06-18T04:08:24.687 回答