Как исправить ошибку "Faulty" в георепликации glusterfs

Я пытаюсь настроить георепликацию glusterfs, следуя инструкциям из документации по glusterfs. В моей настройке у меня есть два узла на главной стороне и один узел на ведомой стороне. После того, как я ввожу команду gluster volume geo-replication mastervolume slavenode:: slavevolume start для запуска гео-репликации, состояние отображается следующим образом:

Главный узел-2 gv0 / data / brick1/gv0 root ssh://Slave-node-1::gv0 Н / Д Неисправен

Если я наблюдаю за командой (наблюдаю за состоянием гео-репликации тома кластера), состояние меняется с Faulty на Active и обратно на Faulty. Активный статус показан ниже:

Главный узел-2 gv0 / data / brick1/gv0 root ssh://Slave-node-1::gv0 Slave-node-1 Активный гибридный обход Н / Д

Журналы имеют следующую ошибку:

[2018-12-26 01: 39: 57.773381] I [gsyncdstatus (/data/brick1/gv0): 245: set_worker_crawl_status] GeorepStatus: Статус сканирования: гибридный обход [2018-12-26 01:39:58.774770] I [master(/data/brick1/gv0):1368: сканирование] _GMaster: обработка журнала изменений xsync /var/lib/misc/glusterfsd/gv0/ssh%3A%2F%2Froot%40192.168.115.215%3Agluster%3A%2F%2F127.0.0.1%3Agv0/430af6dc2d4f6e41e4786764428f83dd/xsync/XSYNC-CHANGELOG.1545788397 [2018-12-26 01:39:59.249290] E [ресурс (/data/brick1/gv0):234:errlog: 0-команда: команда: " -inplace --files-from=- --super --stats --numeric-ids --noimplied-dirs --xattrs --acls . -e ssh -oPasswordAuthentication=no -oStrictHostKeyChecking=no -i /var/lib/glusterd/geo-replication/secret.pem -p 22 -oControlMaster=auto -S /tmp/gsyncd-aux-ssh-cexLuj/722b9cf6c96014bed67371d01a23d439.sock --compress root@Slave-node-1:/proc/698 cwd"возвращается с 3 [2018-12-26 01:39:59.249869] I [syncdutils(/data/brick1/gv0):238: завершить]: выход. [2018-12-26 01:39:59.251211] I [repce(/data/brick1/gv0):92:service_loop] RepceServer: завершается при достижении EOF. [2018-12-26 01:39:59.251513] I [syncdutils(/data/brick1/gv0):238: завершить]: выход. [2018-12-26 01:39:59.685758] I [монитор (монитор):357: монитор] Монитор: работник (/data/brick1/gv0) умер на этапе запуска [2018-12-26 01:39:59.688673] I [gsyncdstatus(монитор):241:set_worker_status] GeorepStatus: статус работника: неисправен

Когда я проверил файлы в томе, файлы в мастере реплицируются на ведомый.

После этого, если я создаю новый файл, файл становится синхронизированным с томом Slave. Но если я удаляю файл или изменяю содержимое файла, это не отражается в ведомом устройстве.

Любые указатели приветствуются.

0 ответов

Другие вопросы по тегам