Можно ли монтировать разные модули в одну и ту же часть локального постоянного тома?

По сути, я создаю развертывание StatefulSet с 2-мя модулями (кластер с одним хостом), и мне хотелось бы, чтобы каждый модуль мог подключаться к базовой папке на хосте и к подпапке под ним:

Монтирование базовой папки: / mnt / disks / ssd

Pod # 1 - / MNT / Диски / SSD / Pod-1

Pod # 2 - / MNT / Диски / SSD / Pod-2

Мне удалось только смонтировать первый модуль в базовую папку, но 2-я папка не может быть смонтирована (так как том уже занят)

Это объем:

apiVersion: v1
kind: PersistentVolume
metadata:
  name: example-local-pv
spec:
  capacity:
    storage: 5Gi 
  accessModes:
  - ReadWriteOnce
  persistentVolumeReclaimPolicy: Delete
  storageClassName: local-storage
  local:
    path: /mnt/disks/ssd
  nodeAffinity:
    required:
      nodeSelectorTerms:
      - matchExpressions:
        - key: kubernetes.io/hostname
          operator: In
          values:
          - ubuntukuber

Это использование в наборе состояний:

apiVersion: apps/v1beta1
kind: StatefulSet
metadata:
  name: app
  namespace: test-ns
spec:
  serviceName: app
  replicas: 2
....
....
        volumeMounts:
          - name: data
            mountPath: /var/lib/app/data
volumeClaimTemplates:
    - metadata:
        name: data
      spec:
        accessModes: [ "ReadWriteOnce" ]
        storageClassName: "local-storage"
        resources:
          requests:
            storage: 2Gi

Итак, я бы хотел, чтобы каждая реплика использовала свою собственную подпапку - как этого добиться?

== РЕДАКТИРОВАТЬ ==

Я добился определенного прогресса, я могу смонтировать несколько реплик в одно и то же монтирование, используя следующие YAML (приложение, на котором я пытаюсь это сделать, называется rabbitmq - поэтому я оставлю имя приложения как есть)

---
kind: PersistentVolume
apiVersion: v1
metadata:
  name: pv-local
  namespace: test-rabbitmq
  labels:
    type: local
spec:
  storageClassName: local
  capacity:
    storage: 6Gi
  accessModes:
    - ReadWriteOnce
  hostPath:
    path: "/mnt/disks"
---
kind: PersistentVolumeClaim
apiVersion: v1
metadata:
  name: hostpath-pvc
  namespace: test-rabbitmq
spec:
  storageClassName: local
  accessModes:
    - ReadWriteOnce
  resources:
    requests:
      storage: 3Gi
  selector:
    matchLabels:
      type: local
---

В StatefulSet я объявляю этот том:

  volumes:
    - name: rabbitmq-data
      persistentVolumeClaim:
        claimName: hostpath-pvc

И монтаж "rabbitmq-data".

Оба модуля монтируются в одну и ту же папку, но не создают подпапки - это не страшная ситуация, так как по умолчанию есть подпапки rabbitmq - я постараюсь развернуть ее в каждом модуле, чтобы использовать подпапку

1 ответ

Решение

Я могу достичь сценария, описанного выше, что вам нужно, чтобы "RequestRef" в вашем PV связывать ваш PVC. Пожалуйста, обратите внимание на следующие PV JSON и Statefulset JSON

PV-0.json

{
  "kind": "PersistentVolume",
  "apiVersion": "v1",
  "metadata": {
    "name": "pv-data-vol-0",
    "labels": {
      "type": "local"
    }
  },
  "spec": {
    "capacity": {
      "storage": "10Gi"
    },
    "accessModes": [
      "ReadWriteOnce"
    ],
    "storageClassName": "local-storage",
    "local": {
      "path": "/prafull/data/pv-0"
    },
    "claimRef": {
      "namespace": "default",
      "name": "data-test-sf-0"
    },
    "nodeAffinity": {
      "required": {
        "nodeSelectorTerms": [
          {
            "matchExpressions": [
              {
                "key": "kubernetes.io/hostname",
                "operator": "In",
                "values": [
                  "ip-10-0-1-46.ec2.internal"
                ]
              }
            ]
          }
        ]
      }
    }
  }
}

PV-1.json

{
  "kind": "PersistentVolume",
  "apiVersion": "v1",
  "metadata": {
    "name": "pv-data-vol-1",
    "labels": {
      "type": "local"
    }
  },
  "spec": {
    "capacity": {
      "storage": "10Gi"
    },
    "accessModes": [
      "ReadWriteOnce"
    ],
    "storageClassName": "local-storage",
    "local": {
      "path": "/prafull/data/pv-1"
    },
    "claimRef": {
      "namespace": "default",
      "name": "data-test-sf-1"
    },
    "nodeAffinity": {
      "required": {
        "nodeSelectorTerms": [
          {
            "matchExpressions": [
              {
                "key": "kubernetes.io/hostname",
                "operator": "In",
                "values": [
                  "ip-10-0-1-46.ec2.internal"
                ]
              }
            ]
          }
        ]
      }
    }
  }
}

Statefulset.json

{
  "kind": "StatefulSet",
  "apiVersion": "apps/v1beta1",
  "metadata": {
    "name": "test-sf",
    "labels": {
      "state": "test-sf"
    }
  },
  "spec": {
    "replicas": 2,
    "template": {
      "metadata": {
        "labels": {
          "app": "test-sf"
        },
        "annotations": {
          "pod.alpha.kubernetes.io/initialized": "true"
        }
      }
      ...
      ...
    },
    "volumeClaimTemplates": [
      {
        "metadata": {
          "name": "data"
        },
        "spec": {
          "accessModes": [
            "ReadWriteOnce"
          ],
          "storageClassName": "local-storage",
          "resources": {
            "requests": {
              "storage": "10Gi"
            }
          }
        }
      }
    ]
  }
}

Будет создано два модуля test-sf-0 и test-sf-1, которые, в свою очередь, создадут два PVC data-test-sf-0 и data-test-sf-1, которые будут связаны с PV-0 и Pv-1 соответственно. Следовательно, test-sf-0 запишет в местоположение, указанное в PV-0, а test-sf-1 запишет в местоположение, указанное в PV-1. Надеюсь это поможет.

Другие вопросы по тегам