Не удалось разрешить имя хоста с помощью docker-compose и podman
Я пытаюсь развернуть сервер мастодонта, используя этот проект: https://github.com/tootsuite/mastodon .
Я запускаю Docker-Compose и Podman на сервере Fedora 33.
$ docker-compose --version
docker-compose version 1.27.4, build unknown
$ docker --version
podman version 3.0.1
$ cat /etc/fedora-release
Fedora release 33 (Thirty Three)
Мне пришлось внести некоторые изменения в файл docker-compose.yml, чтобы он работал с Podman. Вы можете увидеть весь мой файл конфигурации ниже.
version: '3'
services:
db:
restart: always
image: postgres:9.6-alpine
shm_size: 256mb
networks:
- internal_network
healthcheck:
test: ["CMD", "pg_isready", "-U", "postgres"]
timeout: 45s
interval: 10s
retries: 10
volumes:
- ./postgres:/var/lib/postgresql/data
environment:
- POSTGRES_HOST_AUTH_METHOD=trust
redis:
restart: always
image: redis:6.0-alpine
networks:
- internal_network
healthcheck:
test: ["CMD", "redis-cli", "ping"]
timeout: 45s
interval: 10s
retries: 10
volumes:
- ./redis:/data
# es:
# restart: always
# image: docker.elastic.co/elasticsearch/elasticsearch-oss:6.8.10
# environment:
# - "ES_JAVA_OPTS=-Xms512m -Xmx512m"
# - "cluster.name=es-mastodon"
# - "discovery.type=single-node"
# - "bootstrap.memory_lock=true"
# networks:
# - internal_network
# healthcheck:
# test: ["CMD-SHELL", "curl --silent --fail localhost:9200/_cluster/health || exit 1"]
# volumes:
# - ./elasticsearch:/usr/share/elasticsearch/data
# ulimits:
# memlock:
# soft: -1
# hard: -1
web:
# build: .
image: tootsuite/mastodon
restart: always
env_file: .env.production
command: bash -c "rm -f /mastodon/tmp/pids/server.pid; bundle exec rails s -p 3000"
networks:
- external_network
- internal_network
healthcheck:
test: ["CMD-SHELL", "wget -q --spider --proxy=off localhost:3000/health || exit 1"]
timeout: 45s
interval: 10s
retries: 10
ports:
- "127.0.0.1:3000:3000"
depends_on:
- db
- redis
# - es
volumes:
- ./public/system:/mastodon/public/system
streaming:
build: .
image: tootsuite/mastodon
restart: always
env_file: .env.production
command: node ./streaming
networks:
- external_network
- internal_network
healthcheck:
test: ["CMD-SHELL", "wget -q --spider --proxy=off localhost:4000/api/v1/streaming/health || exit 1"]
timeout: 45s
interval: 10s
retries: 10
ports:
- "127.0.0.1:4000:4000"
depends_on:
- db
- redis
sidekiq:
build: .
image: tootsuite/mastodon
restart: always
env_file: .env.production
command: bundle exec sidekiq
depends_on:
- db
- redis
networks:
- external_network
- internal_network
volumes:
- ./public/system:/mastodon/public/system
## Uncomment to enable federation with tor instances along with adding the following ENV variables
## http_proxy=http://privoxy:8118
## ALLOW_ACCESS_TO_HIDDEN_SERVICE=true
# tor:
# image: sirboops/tor
# networks:
# - external_network
# - internal_network
#
# privoxy:
# image: sirboops/privoxy
# volumes:
# - ./priv-config:/opt/config
# networks:
# - external_network
# - internal_network
networks:
external_network:
internal_network:
internal: true
Вот разница с удаленной версией файла в репозитории:
(tl; dr: я добавил параметры проверки работоспособности и переменную env для авторизации запуска postgres без пароля и прокомментировал параметр сборки для использования изображения из репо, так как сборка тоже не удалась)
$ git diff docker-compose.yml
diff --git a/docker-compose.yml b/docker-compose.yml
index 52eea7a74..a8e047ec7 100644
--- a/docker-compose.yml
+++ b/docker-compose.yml
@@ -9,8 +9,13 @@ services:
- internal_network
healthcheck:
test: ["CMD", "pg_isready", "-U", "postgres"]
+ timeout: 45s
+ interval: 10s
+ retries: 10
volumes:
- ./postgres:/var/lib/postgresql/data
+ environment:
+ - POSTGRES_HOST_AUTH_METHOD=trust
redis:
restart: always
@@ -19,6 +24,9 @@ services:
- internal_network
healthcheck:
test: ["CMD", "redis-cli", "ping"]
+ timeout: 45s
+ interval: 10s
+ retries: 10
volumes:
- ./redis:/data
@@ -42,7 +50,7 @@ services:
# hard: -1
web:
- build: .
+ # build: .
image: tootsuite/mastodon
restart: always
env_file: .env.production
@@ -52,6 +60,9 @@ services:
- internal_network
healthcheck:
test: ["CMD-SHELL", "wget -q --spider --proxy=off localhost:3000/health || exit 1"]
+ timeout: 45s
+ interval: 10s
+ retries: 10
ports:
- "127.0.0.1:3000:3000"
depends_on:
@@ -72,6 +83,9 @@ services:
- internal_network
healthcheck:
test: ["CMD-SHELL", "wget -q --spider --proxy=off localhost:4000/api/v1/streaming/health || exit 1"]
+ timeout: 45s
+ interval: 10s
+ retries: 10
ports:
- "127.0.0.1:4000:4000"
depends_on:
Создание секретов было в порядке, но эта команда не удалась:
$ sudo docker-compose run --rm web bundle exec rails db:migrate
Creating network "mastodon_internal_network" with the default driver
Creating network "mastodon_external_network" with the default driver
Creating mastodon_db_1 ... done
Creating mastodon_redis_1 ... done
Creating mastodon_web_run ... done
rails aborted!
PG::ConnectionBad: could not translate host name "db" to address: Name or service not known
Я уже использовал комбинацию Docker-Compose и Podman 3.0 в нескольких проектах, и у меня никогда не было проблем с разрешением имен хостов внутри сетей. Интересно, должен ли я указать драйвер для этой ситуации.
Также я хотел бы проверить, могу ли я получить доступ к службе БД с этим именем хоста из контейнера сети и, следовательно, если проблема в коде (в этом я очень сомневаюсь, но хочу быть уверенным).
EDIT1: журналы службы БД, показывающие, что служба работает нормально и готова принимать соединения.
$ sudo docker logs -f mastodon_db_1
PostgreSQL Database directory appears to contain a database; Skipping initialization
LOG: database system was shut down at 2021-04-01 07:02:04 UTC
LOG: MultiXact member wraparound protections are now enabled
LOG: database system is ready to accept connections
LOG: autovacuum launcher started
2 ответа
У меня была такая же проблема, но причина была другая. В моей системе не был установлен необходимый пакет.
Сначала проверьте сетевой сервер podman:
$ podman info | grep -i networkbackend
> networkBackend: cni
В зависимости от вывода вам может не хватать пакета илиaardvark-dns
. В моем случаеcni-plugin-dnsname
скучал.
Я нашел решение: удаление определения сетей.
Звучит дешево, но это сработало.
Итак, финал
docker-compose.yml
выглядит так:
version: '3'
services:
db:
restart: always
image: postgres:9.6-alpine
shm_size: 256mb
healthcheck:
test: ["CMD", "pg_isready", "-U", "postgres"]
timeout: 45s
interval: 10s
retries: 10
volumes:
- ./postgres:/var/lib/postgresql/data
environment:
- POSTGRES_HOST_AUTH_METHOD=trust
redis:
restart: always
image: redis:6.0-alpine
healthcheck:
test: ["CMD", "redis-cli", "ping"]
timeout: 45s
interval: 10s
retries: 10
volumes:
- ./redis:/data
# es:
# restart: always
# image: docker.elastic.co/elasticsearch/elasticsearch-oss:6.8.10
# environment:
# - "ES_JAVA_OPTS=-Xms512m -Xmx512m"
# - "cluster.name=es-mastodon"
# - "discovery.type=single-node"
# - "bootstrap.memory_lock=true"
# networks:
# - internal_network
# healthcheck:
# test: ["CMD-SHELL", "curl --silent --fail localhost:9200/_cluster/health || exit 1"]
# volumes:
# - ./elasticsearch:/usr/share/elasticsearch/data
# ulimits:
# memlock:
# soft: -1
# hard: -1
web:
# build: .
image: tootsuite/mastodon
restart: always
env_file: .env.production
command: bash -c "rm -f /mastodon/tmp/pids/server.pid; bundle exec rails s -p 3000"
healthcheck:
test: ["CMD-SHELL", "wget -q --spider --proxy=off localhost:3000/health || exit 1"]
timeout: 45s
interval: 10s
retries: 10
ports:
- "127.0.0.1:3000:3000"
depends_on:
- db
- redis
# - es
volumes:
- ./public/system:/mastodon/public/system
streaming:
build: .
image: tootsuite/mastodon
restart: always
env_file: .env.production
command: node ./streaming
healthcheck:
test: ["CMD-SHELL", "wget -q --spider --proxy=off localhost:4000/api/v1/streaming/health || exit 1"]
timeout: 45s
interval: 10s
retries: 10
ports:
- "127.0.0.1:4000:4000"
depends_on:
- db
- redis
sidekiq:
build: .
image: tootsuite/mastodon
restart: always
env_file: .env.production
command: bundle exec sidekiq
depends_on:
- db
- redis
volumes:
- ./public/system:/mastodon/public/system
## Uncomment to enable federation with tor instances along with adding the following ENV variables
## http_proxy=http://privoxy:8118
## ALLOW_ACCESS_TO_HIDDEN_SERVICE=true
# tor:
# image: sirboops/tor
# networks:
# - external_network
# - internal_network
#
# privoxy:
# image: sirboops/privoxy
# volumes:
# - ./priv-config:/opt/config
# networks:
# - external_network
# - internal_network