Google Cloud Launcher: сбой развертывания файлового сервера с одним узлом

Я пытаюсь развернуть файловый сервер с одним узлом, как указано в инструкциях здесь: https://cloud.google.com/solutions/using-tensorflow-jupyterhub-classrooms

Когда я следую инструкциям, кажется, что экземпляр работает нормально, но NFS не работает. Когда я пытаюсь смонтировать из другого экземпляра с

sudo mount -t nfs jupyterhub-filer-vm:/jupyterhub /mnt

я получил

mount.nfs: Connection timed out

Когда я проверяю экземпляр файла в пользовательском интерфейсе Compute Engine ( https://console.cloud.google.com/compute/instancesDetail/zones/us-east1-d/instances/jupyterhub-filer-vm), я вижу

Custom metadata

ADMIN_PASSWORD  xxx
ATTACHED_DISKS  jupyterhub-filer-vm-jupyterhub
C2D_STATUS  DEPLOYMENT_FAILED
ENABLE_NFS  enable:True
ENABLE_SMB  enable:False
FILE_SYSTEM xfs
STORAGE_POOL_NAME   jupyterhub

Документация предлагает

gcloud compute ssh --ssh-flag=-L3000:localhost:3000 --project=workpop-dev --zone us-east1-d jupyterhub-filer-vm

а затем доступ localhost:3000 в браузере для доступа к панели мониторинга производительности. Команда ssh соединяет меня с экземпляром, но браузер возвращает ERR_EMPTY_RESPONSE и в сеансе SSH я вижуchannel 4: open failed: connect failed: Connection refused,

В рамках сессии SSH, я пытаюсь

$ ps -e | grep nfs

и это ничего не возвращает.

$ cat /etc/exports

возвращает файл по умолчанию, содержащий только комментарии.

Поэтому я ищу диск с $ sudo find / -name "jupyterhub*" но это ничего не возвращает. Поискиваю еще немного, вижу /opt/c2d/setup.log который имеет следующие строки в конце:

VIRTUAL_IP =
+ readonly ZFS_KERNEL_CONFIG=/etc/modprobe.d/zfs.conf
+ ZFS_KERNEL_CONFIG=/etc/modprobe.d/zfs.conf
+ networks=(10.0.0.0/8 127.0.0.1)
+ readonly networks
+ readonly DISK_PREFIX=/dev/disk/by-id/google
+ DISK_PREFIX=/dev/disk/by-id/google
+ readonly DATA_DEVICE=/dev/disk/by-id/google-jupyterhub-filer-vm-data
+ DATA_DEVICE=/dev/disk/by-id/google-jupyterhub-filer-vm-data
+ [[ xfs = \z\f\s ]]
+ [[ -n '' ]]
+ case "${FILE_SYSTEM}" in
+ mkfs.xfs -L jupyterhub /dev/disk/by-id/google-jupyterhub-filer-vm-data
/dev/disk/by-id/google-jupyterhub-filer-vm-data: No such file or directory
Usage: mkfs.xfs
/* blocksize */         [-b log=n|size=num]
/* metadata */          [-m crc=0|1,finobt=0|1]
/* data subvol */       [-d agcount=n,agsize=n,file,name=xxx,size=num,
                            (sunit=value,swidth=value|su=num,sw=num|noalign),
                            sectlog=n|sectsize=num
/* force overwrite */   [-f]
/* inode size */        [-i log=n|perblock=n|size=num,maxpct=n,attr=0|1|2,
                            projid32bit=0|1]
/* no discard */        [-K]
/* log subvol */        [-l agnum=n,internal,size=num,logdev=xxx,version=n
                            sunit=value|su=num,sectlog=n|sectsize=num,
                            lazy-count=0|1]
/* label */             [-L label (maximum 12 characters)]
/* naming */            [-n log=n|size=num,version=2|ci,ftype=0|1]
/* no-op info only */   [-N]
/* prototype file */    [-p fname]
/* quiet */             [-q]
/* realtime subvol */   [-r extsize=num,size=num,rtdev=xxx]
/* sectorsize */        [-s log=n|size=num]
/* version */           [-V]
                        devicename
<devicename> is required unless -d name=xxx is given.
<num> is xxx (bytes), xxxs (sectors), xxxb (fs blocks), xxxk (xxx KiB),
      xxxm (xxx MiB), xxxg (xxx GiB), xxxt (xxx TiB) or xxxp (xxx PiB).
<value> is xxx (512 byte blocks).

На данный момент я убежден, что что-то пошло не так, но я не знаю, как это исправить. Кто-нибудь может помочь?

1 ответ

Решение

Существует проблема с именем диска.

Попробуйте это со значением по умолчанию: Имя хранилища = данные

(Он завершил настройку для меня без ошибок, и localhost:3000 загружается правильно. Я не уверен, что это создаст ошибки позже в лаборатории.)

Другие вопросы по тегам