Обновление развертывания, использующего том ReadWriteOnce, не будет выполнено при монтировании

Мое развертывание использует несколько томов, все определены как ReadWriteOnce,

При применении развертывания к чистому кластеру pod создается успешно.

Однако если я обновлю свое развертывание (то есть обновлю образ контейнера), то при создании нового модуля для моего развертывания он всегда будет зависать при монтировании тома:

/Mugen$ kubectl get pods
NAME                            READY     STATUS              RESTARTS   AGE
my-app-556c8d646b-4s2kg         5/5       Running             1          2d
my-app-6dbbd99cc4-h442r         0/5       ContainerCreating   0          39m

/Mugen$ kubectl describe pod my-app-6dbbd99cc4-h442r
      Type     Reason                  Age                 From                                             Message
      ----     ------                  ----                ----                                             -------
      Normal   Scheduled               9m                  default-scheduler                                Successfully assigned my-app-6dbbd99cc4-h442r to gke-my-test-default-pool-671c9db5-k71l
      Warning  FailedAttachVolume      9m                  attachdetach-controller                          Multi-Attach error for volume "pvc-b57e8a7f-1ca9-11e9-ae03-42010a8400a8" Volume is already used by pod(s) my-app-556c8d646b-4s2kg
      Normal   SuccessfulMountVolume   9m                  kubelet, gke-my-test-default-pool-671c9db5-k71l  MountVolume.SetUp succeeded for volume "default-token-ksrbf"
      Normal   SuccessfulAttachVolume  9m                  attachdetach-controller                          AttachVolume.Attach succeeded for volume "pvc-2cc1955a-1cb2-11e9-ae03-42010a8400a8"
      Normal   SuccessfulAttachVolume  9m                  attachdetach-controller                          AttachVolume.Attach succeeded for volume "pvc-2c8dae3e-1cb2-11e9-ae03-42010a8400a8"
      Normal   SuccessfulMountVolume   9m                  kubelet, gke-my-test-default-pool-671c9db5-k71l  MountVolume.SetUp succeeded for volume "pvc-2cc1955a-1cb2-11e9-ae03-42010a8400a8"
      Normal   SuccessfulMountVolume   9m                  kubelet, gke-my-test-default-pool-671c9db5-k71l  MountVolume.SetUp succeeded for volume "pvc-2c8dae3e-1cb2-11e9-ae03-42010a8400a8"
      Warning  FailedMount             52s (x4 over 7m)    kubelet, gke-my-test-default-pool-671c9db5-k71l  Unable to mount volumes for pod "my-app-6dbbd99cc4-h442r_default(affe75e0-1edd-11e9-bb45-42010a840094)": timeout expired waiting for volumes to attach or mount for pod "default"/"my-app-6dbbd99cc4-h442r". list of unmounted volumes=[...]. list of unattached volumes=[...]

Какова лучшая стратегия для применения изменений в таком развертывании тогда? Должен ли быть какой-то сбой в обслуживании, чтобы использовать те же постоянные тома? (Я не хотел бы создавать новые тома - данные должны поддерживать)

2 ответа

Решение

Вы должны будете терпеть сбой здесь, из-за режима доступа. Это удалит существующие блоки (размонтирование томов) перед созданием новых.

Стратегия развертывания - .spec.strategy.type - "Восстановить" поможет добиться этого: https://github.com/ContainerSolutions/k8s-deployment-strategies/blob/master/recreate/README.md

Это похоже на ошибку из-за режима доступа ReadWriteOnce. Помните, что при обновлении развертывания создаются новые модули, а затем уничтожаются старые. Итак, возможно, новый модуль попытается смонтировать уже смонтированный том, и именно поэтому вы получаете это сообщение.

Вы пытались использовать том, который позволяет нескольким читателям / писателям? Вы можете увидеть список текущих томов в документации по Kubernetes Volumes.

Я закончил с лучшим решением, в котором все мои клиентские модули являются только читателями контента, а у меня есть независимый процесс CI, пишущий контент, я делаю следующее:

  • Из CI: запись содержимого в корзину Google Cloud Storage: gs://my-storage, затем перезапустите все клиентские модули
  • При определении развертывания я синхронизирую (загружаю) всю корзину с энергозависимым хранилищем pod и обслуживаю ее из файловой системы с максимальной производительностью.

Как этого добиться: в образе докеры внешнего интерфейса я добавил блок установки gcloud из https://github.com/GoogleCloudPlatform/cloud-sdk-docker/blob/master/debian_slim/Dockerfile:

ARG CLOUD_SDK_VERSION=249.0.0
ENV CLOUD_SDK_VERSION=$CLOUD_SDK_VERSION
ARG INSTALL_COMPONENTS
ENV PATH "$PATH:/opt/google-cloud-sdk/bin/"
RUN apt-get update -qqy && apt-get install -qqy \
        curl \
        gcc \
        python-dev \
        python-setuptools \
        apt-transport-https \
        lsb-release \
        openssh-client \
        git \
        gnupg \
    && easy_install -U pip && \
    pip install -U crcmod && \
    export CLOUD_SDK_REPO="cloud-sdk-$(lsb_release -c -s)" && \
    echo "deb https://packages.cloud.google.com/apt $CLOUD_SDK_REPO main" > /etc/apt/sources.list.d/google-cloud-sdk.list && \
    curl https://packages.cloud.google.com/apt/doc/apt-key.gpg | apt-key add - && \
    apt-get update && apt-get install -y google-cloud-sdk=${CLOUD_SDK_VERSION}-0 $INSTALL_COMPONENTS && \
    gcloud config set core/disable_usage_reporting true && \
    gcloud config set component_manager/disable_update_check true && \
    gcloud config set metrics/environment github_docker_image && \
    gcloud --version
VOLUME ["/root/.config"]

И в развертывании модуля frontend.yaml Я добавил следующее lifecycle событие:

...
spec:
  ...
  containers:
  ...
    lifecycle:
    postStart:
      exec:
       command: ["gsutil", "-m", "rsync", "-r", "gs://my-storage", "/usr/share/nginx/html"]

Чтобы "обновить" модули интерфейса при обновлении содержимого корзины, я просто запускаю следующее из своего CI:

kubectl set env deployment/frontend K8S_FORCE=дата +%s ''

Другие вопросы по тегам