Производитель Kafka говорит "unknown_topic_or_partition"
Я уже несколько дней пытаюсь заставить работать кафку-докер, и я не знаю, что я делаю неправильно. Сейчас я не могу получить доступ к какой-либо теме с помощью моего клиента ruby-kafka, потому что узел "не существует". Это мой файл docker-compose.yml:
version: '2'
services:
zookeeper:
image: wurstmeister/zookeeper
ports:
- "2181:2181"
kafka:
image: wurstmeister/kafka:0.9.0.1
ports:
- "9092:9092"
links:
- zookeeper
environment:
KAFKA_BROKER_ID: 1
KAFKA_ADVERTISED_HOST_NAME: 192.168.99.100
KAFKA_ADVERTISED_PORT: 9092
KAFKA_ZOOKEEPER_CONNECT: zookeeper:2181
KAFKA_AUTO_CREATE_TOPICS_ENABLE: 'false'
volumes:
- /var/run/docker.sock:/var/run/docker.sock
kafka2:
image: wurstmeister/kafka:0.9.0.1
ports:
- "9093:9092"
links:
- zookeeper
environment:
KAFKA_BROKER_ID: 2
KAFKA_ADVERTISED_HOST_NAME: 192.168.99.100
KAFKA_ADVERTISED_PORT: 9093
KAFKA_ZOOKEEPER_CONNECT: zookeeper:2181
KAFKA_AUTO_CREATE_TOPICS_ENABLE: 'false'
volumes:
- /var/run/docker.sock:/var/run/docker.sock
kafka3:
image: wurstmeister/kafka:0.9.0.1
ports:
- "9094:9092"
links:
- zookeeper
environment:
KAFKA_BROKER_ID: 3
KAFKA_ADVERTISED_HOST_NAME: 192.168.99.100
KAFKA_ADVERTISED_PORT: 9094
KAFKA_ZOOKEEPER_CONNECT: zookeeper:2181
KAFKA_AUTO_CREATE_TOPICS_ENABLE: 'false'
volumes:
- /var/run/docker.sock:/var/run/docker.sock
Я указываю "KAFKA_AUTO_CREATE_TOPICS_ENABLE:" ложь "", потому что я хочу создавать темы вручную, поэтому я вошел в свой первый контейнер брокера и набрал это:
./kafka-topics.sh --create --zookeeper 172.19.0.2:2181 --topic test1 --partitions 4 --replication-factor 3
И все вроде нормально
./kafka-topics.sh --list --zookeeper 172.19.0.2:2181 -> test1
Но когда я пытаюсь сделать это:
./kafka-console-producer.sh --broker-list localhost: 9092 --topic test1
Это говорит:
ПРЕДУПРЕЖДЕНИЕ Ошибка при получении метаданных с идентификатором корреляции 24: {test1=UNKNOWN_TOPIC_OR_PARTITION} (org.apache.kafka.clients.NetworkClient)
Если я снова создаю тему, она говорит, что она уже существует, поэтому я больше не знаю, что происходит.
1 ответ
Вы должны правильно настроить свою сеть, поскольку Kafka работает на всех хостах и должен иметь доступ к ним всем.
Этот пост объясняет это подробно.
Вы также можете обратиться к https://github.com/confluentinc/cp-docker-images/blob/5.0.0-post/examples/cp-all-in-one/docker-compose.yml для примера рабочий докер составь.
Поэтому у нас возникла эта проблема, когда мы работали с kafka connect. Для этого есть несколько решений. Либо удалите все образы докеров, либо измените идентификатор группы в конфигурации для подключения в образе подключения, как показано ниже:-
image: debezium/connect:1.1
ports:
- 8083:8083
links:
- schema-registry
environment:
- BOOTSTRAP_SERVERS=kafkaanalytics-mgmt.fptsinternal.com:9092
- GROUP_ID=1
- CONFIG_STORAGE_TOPIC=my_connect_configs
- OFFSET_STORAGE_TOPIC=my_connect_offsets
- STATUS_STORAGE_TOPIC=my_connect_statuses
- INTERNAL_KEY_CONVERTER=org.apache.kafka.connect.json.JsonConverter
- INTERNAL_VALUE_CONVERTER=org.apache.kafka.connect.json.JsonConverter