Рабочий узел Kubernetes не готов из-за того, что плагин CNI не инициализирован

Я использую kind для запуска тестового кластера Kubernetes на моем локальном Macbook.

Я нашел один из узлов со статусом NotReady:

$ kind get clusters                                                                                                                                                                 
mc

$ kubernetes get nodes
NAME                STATUS     ROLES    AGE     VERSION
mc-control-plane    Ready      master   4h42m   v1.18.2
mc-control-plane2   Ready      master   4h41m   v1.18.2
mc-control-plane3   Ready      master   4h40m   v1.18.2
mc-worker           NotReady   <none>   4h40m   v1.18.2
mc-worker2          Ready      <none>   4h40m   v1.18.2
mc-worker3          Ready      <none>   4h40m   v1.18.2

Единственное интересное в kubectl describe node mc-worker заключается в том, что плагин CNI не инициализирован:

Conditions:
  Type             Status  LastHeartbeatTime                 LastTransitionTime                Reason                       Message
  ----             ------  -----------------                 ------------------                ------                       -------
  MemoryPressure   False   Tue, 11 Aug 2020 16:55:44 -0700   Tue, 11 Aug 2020 12:10:16 -0700   KubeletHasSufficientMemory   kubelet has sufficient memory available
  DiskPressure     False   Tue, 11 Aug 2020 16:55:44 -0700   Tue, 11 Aug 2020 12:10:16 -0700   KubeletHasNoDiskPressure     kubelet has no disk pressure
  PIDPressure      False   Tue, 11 Aug 2020 16:55:44 -0700   Tue, 11 Aug 2020 12:10:16 -0700   KubeletHasSufficientPID      kubelet has sufficient PID available
  Ready            False   Tue, 11 Aug 2020 16:55:44 -0700   Tue, 11 Aug 2020 12:10:16 -0700   KubeletNotReady              runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady
message:Network plugin returns error: cni plugin not initialized

У меня есть 2 похожих кластера, и это происходит только в этом кластере.

поскольку kind использует локальный демон Docker для запуска этих узлов в качестве контейнеров, я уже пытался перезапустить контейнер (это должно быть эквивалентно перезагрузке узла).

Я подумал об удалении и воссоздании кластера, но должен быть способ решить эту проблему без повторного создания кластера.

Вот версии, которые я использую:

$ kind version                                                                                                                                                                     
kind v0.8.1 go1.14.4 darwin/amd64

$ kubectl version                                                                                                                                                  
Client Version: version.Info{Major:"1", Minor:"16+", GitVersion:"v1.16.6-beta.0", GitCommit:"e7f962ba86f4ce7033828210ca3556393c377bcc", GitTreeState:"clean", BuildDate:"2020-01-15T08:26:26Z", GoVersion:"go1.13.5", Compiler:"gc", Platform:"darwin/amd64"}
Server Version: version.Info{Major:"1", Minor:"18", GitVersion:"v1.18.2", GitCommit:"52c56ce7a8272c798dbc29846288d7cd9fbae032", GitTreeState:"clean", BuildDate:"2020-04-30T20:19:45Z", GoVersion:"go1.13.9", Compiler:"gc", Platform:"linux/amd64"}

Как решить эту проблему?

3 ответа

Наиболее вероятная причина:

На виртуальной машине-докере не хватает ресурса, и она не может запустить CNI на этом узле.

Вы можете покопаться в виртуальной машине HyperKit, подключившись к ней:

Из оболочки:

screen ~/Library/Containers/com.docker.docker/Data/vms/0/tty

Если по какой-то причине это не сработает:

docker run -it --rm --privileged --pid=host alpine nsenter -t 1 -m -u -n -i sh

Попав в виртуальную машину:

# ps -Af
# free
# df -h
...

Затем вы всегда можете обновить настройку в пользовательском интерфейсе докера:

Наконец, ваш узел все-таки работает в контейнере. Итак, вы можете подключиться к этому контейнеру и посмотреть, чтоkubelet ошибки, которые вы видите:

docker ps
CONTAINER ID        IMAGE                  COMMAND                  CREATED             STATUS              PORTS                       NAMES
6d881be79f4a        kindest/node:v1.18.2   "/usr/local/bin/entr…"   32 seconds ago      Up 29 seconds       127.0.0.1:57316->6443/tcp   kind-control-plane
docker exec -it 6d881be79f4a bash
root@kind-control-plane:/# systemctl status kubelet
● kubelet.service - kubelet: The Kubernetes Node Agent
   Loaded: loaded (/kind/systemd/kubelet.service; enabled; vendor preset: enabled)
  Drop-In: /etc/systemd/system/kubelet.service.d
           └─10-kubeadm.conf
   Active: active (running) since Wed 2020-08-12 02:32:16 UTC; 35s ago
     Docs: http://kubernetes.io/docs/
 Main PID: 768 (kubelet)
    Tasks: 23 (limit: 2348)
   Memory: 32.8M
   CGroup: /docker/6d881be79f4a8ded3162ec6b5caa8805542ff9703fabf5d3d2eee204a0814e01/system.slice/kubelet.service
           └─768 /usr/bin/kubelet --bootstrap-kubeconfig=/etc/kubernetes/bootstrap-kubelet.conf --kubeconfig=/etc/kubernetes/kubelet.conf --config=/var/lib/kubelet
/config.yaml --container-runtime=remote --container-runtime-endpoint=/run/containerd/containerd.sock --fail-swap-on=false --node-ip= --fail-swap-on=false
...

✌️

Остановите и отключите apparmor и перезапустите службу containerd на этом узле, чтобы решить вашу проблему :~# systemctl stop apparmor :~# systemctl отключить apparmor [email protected][email protected][email protected] :~# systemctl перезапустить containerd.service

Я столкнулся с таким сценарием. Мастер готов, а статус рабочего узла - нет. После некоторого расследования я обнаружил, что /opt/cni/bin пуст - нет сетевого плагина для хостов моих рабочих узлов. Таким образом, я установил этот "kubernetes-cni.x86_64" и перезапустил службу kubelet. Это решило статус "NotReady" моих рабочих узлов.

Другие вопросы по тегам