При установке Ceph EC2 не удалось создать osd
Я пытаюсь установить Ceph в двух экземплярах ec2, следуя этому руководству, но не могу создать osd. В моем кластере только два сервера, и он не может создать раздел при использовании этой команды:
ceph-deploy osd create host:xvdb:/dev/xvdb1 host:xvdf:/dev/xvdf1
[WARNIN] command_check_call: Running command: /sbin/mkfs -t xfs -K -f -- /dev/xvdf1
[WARNIN] can't get size of data subvolume
[WARNIN] Usage: mkfs.xfs
[WARNIN] /* blocksize */ [-b log=n|size=num]
[WARNIN] /* metadata */ [-m crc=0|1,finobt=0|1,uuid=xxx]
[WARNIN] /* data subvol */ [-d agcount=n,agsize=n,file,name=xxx,size=num,
[WARNIN] (sunit=value,swidth=value|su=num,sw=num|noalign),
[WARNIN] sectlog=n|sectsize=num
[WARNIN] /* force overwrite */ [-f]
[WARNIN] /* inode size */ [-i log=n|perblock=n|size=num,maxpct=n,attr=0|1|2,
[WARNIN] projid32bit=0|1]
[WARNIN] /* no discard */ [-K]
[WARNIN] /* log subvol */ [-l agnum=n,internal,size=num,logdev=xxx,version=n
[WARNIN] sunit=value|su=num,sectlog=n|sectsize=num,
[WARNIN] lazy-count=0|1]
[WARNIN] /* label */ [-L label (maximum 12 characters)]
[WARNIN] /* naming */ [-n log=n|size=num,version=2|ci,ftype=0|1]
[WARNIN] /* no-op info only */ [-N]
[WARNIN] /* prototype file */ [-p fname]
[WARNIN] /* quiet */ [-q]
[WARNIN] /* realtime subvol */ [-r extsize=num,size=num,rtdev=xxx]
[WARNIN] /* sectorsize */ [-s log=n|size=num]
[WARNIN] /* version */ [-V]
[WARNIN] devicename
[WARNIN] <devicename> is required unless -d name=xxx is given.
[WARNIN] <num> is xxx (bytes), xxxs (sectors), xxxb (fs blocks), xxxk (xxx KiB),
[WARNIN] xxxm (xxx MiB), xxxg (xxx GiB), xxxt (xxx TiB) or xxxp (xxx PiB).
[WARNIN] <value> is xxx (512 byte blocks).
[WARNIN] '/sbin/mkfs -t xfs -K -f -- /dev/xvdf1' failed with status code 1
[ERROR ] RuntimeError: command returned non-zero exit status: 1
[ceph_deploy.osd][ERROR ] Failed to execute command: /usr/sbin/ceph-disk -v prepare --cluster ceph --fs-type xfs -- /dev/xvdf /dev/xvdf1
[ceph_deploy][ERROR ] GenericError: Failed to create 2 OSDs
Та же ошибка происходит на двух дисках, которые я пытаюсь создать в экранном меню. Это файл ceph.conf, который я использую:
fsid = b3901613-0b17-47d2-baaa-26859c457737
mon_initial_members = host1,host2
mon_host = host1,host2
auth_cluster_required = cephx
auth_service_required = cephx
auth_client_required = cephx
osd mkfs options xfs = -K
public network = ip.ip.ip.0/24, ip.ip.ip.0/24
cluster network = ip.ip.0.0/24
osd pool default size = 2 # Write an object 2 times
osd pool default min size = 1 # Allow writing 1 copy in a degraded state
osd pool default pg num = 256
osd pool default pgp num = 256
osd crush chooseleaf type = 3
Кто-нибудь знает, как решить эту проблему?
1 ответ
>>ceph-deploy osd создать хост:xvdb:/dev/xvdb1 хост:xvdf:/dev/xvdf1
Вам необходимо использовать имя разработчика раздела DATA и имя раздела журнала. Так было бы как
ceph-deploy osd создать хост:/dev/xvdb1:/dev/xvdb2 хост:/dev/xvdf1:/dev/xvdf2
Кроме того, поскольку вы создаете эти разделы вручную, вам нужно изменить владельца устройства на ceph: ceph для работы ceph-deploy. Пример: chown ceph:ceph /dev/xvdb* Пример: chown ceph:ceph /dev/xvdf*
ПРИМЕЧАНИЕ. Если вы не укажете диск журнала, т.е. [/dev/xvdb2 ИЛИ /dev/xvdf2], ceph-deploy будет использовать файл вместо раздела диска для хранения журналов.
- Дипак