Невозможно создать том с помощью ceph в двух разных сетях
У меня есть Ceph
кластер с 3 мониторами в сети 192.168.101.0/24, который работает нормально.
# ceph -s
cluster:
id: 343a1ca5-a204-4617-b0a6-0a9a7eb33ab0
health: HEALTH_OK
services:
mon: 3 daemons, quorum compute1,compute2,compute3
mgr: compute3(active), standbys: compute1, compute2
osd: 9 osds: 9 up, 9 in
data:
pools: 6 pools, 1092 pgs
objects: 85.14 k objects, 349 GiB
usage: 411 GiB used, 3.7 TiB / 4.1 TiB avail
pgs: 1092 active+clean
io:
client: 300 KiB/s rd, 422 KiB/s wr, 352 op/s rd, 80 op/s wr
И у меня есть клиентский узел на 192.168.100/24
сеть, которая подключена к кластеру путем копирования /etc/ceph/*
содержимое моего клиентского узла, чтобы я мог получить ceph -s
в моем клиентском узле. Проблема в том, что я не могу создать том с клиентом в кластере ceph
ceph.conf:
fsid = 343a1ca5-a204-4617-b0a6-0a9a7eb33ab0
mon_initial_members = compute1, compute2, compute3
mon_host = 192.168.101.3,192.168.101.4,192.168.101.5
auth_cluster_required = cephx
auth_service_required = cephx
auth_client_required = cephx
osd pool default size = 2
public network = 192.168.0.0/16
[osd]
osd crush update on start = false
[client]
rbd cache = true
rbd cache writethrough until flush = true
admin socket = /var/run/ceph/guests/$cluster-$type.$id.$pid.$cctid.asok
log file = /var/log/qemu/qemu-guest-$pid.log
rbd concurrent management ops = 20
Я написал эти команды, чтобы сети видели друг друга
# ip route add 192.168.101.0/24 dev ens4 src 192.168.100.41 table rt2
# ip route add default via 192.168.100.1 dev ens4 table rt2
# ip rule add from 192.168.101.2/24 table rt2
# ip rule add to 192.168.101.128/24 table rt2
Что я пропустил?