Confluent Kafka Streams - не удалось найти класс io.confluent.connect.avro.ConnectDefault
Я использую исходный соединитель jdbc с режимом запроса, и кажется, что без указанного имени таблицы схемы, зарегистрированные в реестре схемы для ключа записи и значения записи, имеют пустые имена схем и им присваивается имя по умолчанию "ConnectDefault". как определено в классе AvroData Конфлюента https://github.com/confluentinc/schema-registry/blob/master/avro-converter/src/main/java/io/confluent/connect/avro/AvroData.java
При запуске приложения Kafka Streams с использованием сгенерированных источников avro и SpecificAvroSerde, я получаю сообщение об ошибке:
Exception in thread "streams-app-6e39ebfd-db14-49bc-834f-afaf108a6d25-StreamThread-1" org.apache.kafka.streams.errors.StreamsException: Failed to deserialize value for record. topic=topic-name, partition=0, offset=0
at org.apache.kafka.streams.processor.internals.SourceNodeRecordDeserializer.deserialize(SourceNodeRecordDeserializer.java:46)
at org.apache.kafka.streams.processor.internals.RecordQueue.addRawRecords(RecordQueue.java:84)
at org.apache.kafka.streams.processor.internals.PartitionGroup.addRawRecords(PartitionGroup.java:117)
at org.apache.kafka.streams.processor.internals.StreamTask.addRecords(StreamTask.java:474)
at org.apache.kafka.streams.processor.internals.StreamThread.addRecordsToTasks(StreamThread.java:642)
at org.apache.kafka.streams.processor.internals.StreamThread.runLoop(StreamThread.java:548)
at org.apache.kafka.streams.processor.internals.StreamThread.run(StreamThread.java:519)
Caused by: org.apache.kafka.common.errors.SerializationException: Error deserializing Avro message for id 2
Caused by: org.apache.kafka.common.errors.SerializationException: Could not find class io.confluent.connect.avro.ConnectDefault specified in writer's schema whilst finding reader's schema for a SpecificRecord.
Я попытался ПОСТАВИТЬ новую версию схем ключей и значений из темы с именем таблицы в качестве имени схемы и УДАЛИТЬ исходные версии, которые имели \"name\":\"ConnectDefault\",\"namespace\":\"io.confluent.connect.avro\"
свойства без удачи. Я пропускаю класс с именем ConnectDefault или я могу указать где-нибудь в исходном соединителе имя схемы без пространства имен?
Моя конфигурация Kafka Streams:
streamsConfig.put(StreamsConfig.APPLICATION_ID_CONFIG, "streams-app");
streamsConfig.put(StreamsConfig.BOOTSTRAP_SERVERS_CONFIG, "localhost:9092");
streamsConfig.put(AbstractKafkaAvroSerDeConfig.SCHEMA_REGISTRY_URL_CONFIG, "http://localhost:8081");
streamsConfig.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, "earliest");
Конфигурация My Kafka Connect:
name=source
connector.class=io.confluent.connect.jdbc.JdbcSourceConnector
tasks.max=1
connection.url=jdbc:oracle:thin:
mode=incrementing
incrementing.column.name=id
query=QUERY
topic.prefix=topic-name
transforms=InsertKey, ExtractId
transforms.InsertKey.type=org.apache.kafka.connect.transforms.ValueToKey
transforms.InsertKey.fields=id
transforms.ExtractId.type=org.apache.kafka.connect.transforms.ExtractField$Key
transforms.ExtractId.field=id
key.converter=org.apache.kafka.connect.storage.StringConverter
key.converter.schemas.enable=false
value.converter=io.confluent.connect.avro.AvroConverter
value.converter.schemas.enable=true
value.converter.schema.registry.url=http://localhost:8081
1 ответ
Проблема заключалась в том, что имя схемы по умолчанию равно нулю с исходным соединителем jdbc в режиме запроса. https://github.com/confluentinc/kafka-connect-jdbc/issues/90
Похоже, что это можно решить, добавив имя схемы с помощью SMT (преобразования одного сообщения) в исходный соединитель с преобразованием SetSchemaMetadata. https://cwiki.apache.org/confluence/display/KAFKA/KIP-66%3A+Single+Message+Transforms+for+Kafka+Connect
По умолчанию kafka будет искать схему ключей в ConnectDefault.
Просто создайте класс схемы ключа с именем "ConnectDefault" и сохраните этот класс внутри пакета "io.confluent.connect.avro".