pg_num автомасштабирование на Ceph
Я новичок в Ceph и использовал его только в своей домашней лаборатории с 3 узлами по 2 OSD в каждом. Прочитав об автомасштабировании Nautilus и pg_num, я включил это, но, вероятно, это была ошибка. теперь мой кластер имеет этот статус. У кого-то есть подсказка, как это пройти?
Ceph status
cluster:
id: b512a8d7-1956-4ef3-aa3e-6f24d08878cf
health: HEALTH_WARN
Reduced data availability: 256 pgs inactive
services:
mon: 3 daemons, quorum ce01,ce03,ce02 (age 17m)
mgr: ce02(active, since 48m), standbys: ce03, ce01
mds: cephfs:1 {0=ce03=up:active} 2 up:standby
osd: 6 osds: 6 up (since 17m), 6 in (since 5d)
data:
pools: 3 pools, 288 pgs
objects: 24 objects, 4.8 MiB
usage: 683 GiB used, 16 TiB / 16 TiB avail
pgs: 88.889% pgs unknown
256 unknown
32 active+clean