Невозможно создать том с помощью ceph в двух разных сетях

У меня есть Ceph кластер с 3 мониторами в сети 192.168.101.0/24, который работает нормально.

# ceph -s

 cluster:
    id:     343a1ca5-a204-4617-b0a6-0a9a7eb33ab0
    health: HEALTH_OK

  services:
    mon: 3 daemons, quorum compute1,compute2,compute3
    mgr: compute3(active), standbys: compute1, compute2
    osd: 9 osds: 9 up, 9 in

  data:
    pools:   6 pools, 1092 pgs
    objects: 85.14 k objects, 349 GiB
    usage:   411 GiB used, 3.7 TiB / 4.1 TiB avail
    pgs:     1092 active+clean

  io:
    client:   300 KiB/s rd, 422 KiB/s wr, 352 op/s rd, 80 op/s wr

И у меня есть клиентский узел на 192.168.100/24 сеть, которая подключена к кластеру путем копирования /etc/ceph/* содержимое моего клиентского узла, чтобы я мог получить ceph -s в моем клиентском узле. Проблема в том, что я не могу создать том с клиентом в кластере ceph

ceph.conf:

fsid = 343a1ca5-a204-4617-b0a6-0a9a7eb33ab0
mon_initial_members = compute1, compute2, compute3
mon_host = 192.168.101.3,192.168.101.4,192.168.101.5
auth_cluster_required = cephx
auth_service_required = cephx
auth_client_required = cephx

osd pool default size = 2

public network = 192.168.0.0/16

[osd]
osd crush update on start = false

[client]

rbd cache = true
rbd cache writethrough until flush = true
admin socket = /var/run/ceph/guests/$cluster-$type.$id.$pid.$cctid.asok
log file = /var/log/qemu/qemu-guest-$pid.log
rbd concurrent management ops = 20

Я написал эти команды, чтобы сети видели друг друга

# ip route add 192.168.101.0/24 dev ens4 src 192.168.100.41 table rt2
# ip route add default via 192.168.100.1 dev ens4 table rt2
# ip rule add from 192.168.101.2/24 table rt2
# ip rule add to 192.168.101.128/24 table rt2

Что я пропустил?

0 ответов

Другие вопросы по тегам