pg_num автомасштабирование на Ceph

Я новичок в Ceph и использовал его только в своей домашней лаборатории с 3 узлами по 2 OSD в каждом. Прочитав об автомасштабировании Nautilus и pg_num, я включил это, но, вероятно, это была ошибка. теперь мой кластер имеет этот статус. У кого-то есть подсказка, как это пройти?

Ceph status
  cluster:
    id:     b512a8d7-1956-4ef3-aa3e-6f24d08878cf
    health: HEALTH_WARN
            Reduced data availability: 256 pgs inactive

  services:
    mon: 3 daemons, quorum ce01,ce03,ce02 (age 17m)
    mgr: ce02(active, since 48m), standbys: ce03, ce01
    mds: cephfs:1 {0=ce03=up:active} 2 up:standby
    osd: 6 osds: 6 up (since 17m), 6 in (since 5d)

  data:
    pools:   3 pools, 288 pgs
    objects: 24 objects, 4.8 MiB
    usage:   683 GiB used, 16 TiB / 16 TiB avail
    pgs:     88.889% pgs unknown
             256 unknown
             32  active+clean

0 ответов

Другие вопросы по тегам