Как перезагрузить куб-аписервер?
Я перезапустил свою систему сегодня. После этого моя основная система и веб-браузер не подключаются для поиска GUI kubernetes.
Когда я управлял командой systemctl status kube-apiserver.service
, это дает вывод, как показано ниже
kube-apiserver.service
Loaded: not-found (Reason: No such file or directory)
Active: inactive (dead)
Может ли кто-нибудь предложить мне, как преодолеть эту проблему.
4 ответа
Вы скачали и установили двоичные файлы Kubernetes Controller напрямую?
1) Если да, проверьте,
kube-apiserver.service
файл модуля systemd существует:
cat /etc/systemd/system/kube-apiserver.service
2) Если нет, возможно, вы установили K8S с помощью kubeadm.
При такой настройке kubeapi-server работает как под на главном узле:
kubectl get pods -n kube-system
NAME READY STATUS
coredns-f9fd979d6-jsn6w 1/1 Running ..
coredns-f9fd979d6-tv5j6 1/1 Running ..
etcd-master-k8s 1/1 Running ..
kube-apiserver-master-k8s 1/1 Running .. #<--- Here
kube-controller-manager-master-k8s 1/1 Running ..
kube-proxy-5kzbc 1/1 Running ..
kube-scheduler-master-k8s 1/1 Running ..
И не как системный сервис.
Итак, поскольку вы не можете перезапустить поды в K8S, вам придется его удалить:
kubectl delete pod/kube-apiserver-master-k8s -n kube-system
И сразу же будет создан новый модуль.
(*) При запуске kubeadm init вы должны увидеть создание манифестов для статических модулей уровня управления:
.
.
[control-plane] Using manifest folder "/etc/kubernetes/manifests"
[control-plane] Creating static Pod manifest for "kube-apiserver"
[control-plane] Creating static Pod manifest for "kube-controller-manager"
[control-plane] Creating static Pod manifest for "kube-scheduler"
[etcd] Creating static Pod manifest for local etcd in "/etc/kubernetes/manifests"
.
.
Соответствующие ямлы:
ubuntu@master-k8s:/etc/kubernetes/manifests$ ls -la
total 24
drwxr-xr-x 2 root root 4096 Oct 14 00:13 .
drwxr-xr-x 4 root root 4096 Sep 29 02:30 ..
-rw------- 1 root root 2099 Sep 29 02:30 etcd.yaml
-rw------- 1 root root 3863 Oct 14 00:13 kube-apiserver.yaml <----- Here
-rw------- 1 root root 3496 Sep 29 02:30 kube-controller-manager.yaml
-rw------- 1 root root 1384 Sep 29 02:30 kube-scheduler.yaml
И спецификация kube-apiserver:
apiVersion: v1
kind: Pod
metadata:
annotations:
kubeadm.kubernetes.io/kube-apiserver.advertise-address.endpoint: 10.100.102.5:6443
creationTimestamp: null
labels:
component: kube-apiserver
tier: control-plane
name: kube-apiserver
namespace: kube-system
spec:
containers:
- command:
- kube-apiserver
- --advertise-address=10.100.102.5
- --allow-privileged=true
- --authorization-mode=Node,RBAC
- --client-ca-file=/etc/kubernetes/pki/ca.crt
- --enable-admission-plugins=NodeRestriction
- --enable-bootstrap-token-auth=true
.
.
.
переместите файл манифеста kube-apiserver из папки / etc / kubernetes / manifestests во временную папку. Преимущество этого метода в том, что вы можете остановить kube-apiserver до тех пор, пока файл будет удален из папки манифеста.
vagrant@master01:~$ ll /etc/kubernetes/manifests/
total 16
-rw------- 1 root root 3315 May 12 23:24 kube-controller-manager.yaml
-rw------- 1 root root 1384 May 12 23:24 kube-scheduler.yaml
-rw------- 1 root root 2157 May 12 23:24 etcd.yaml
-rw------- 1 root root 3792 May 20 00:08 kube-apiserver.yaml
vagrant@master01:~$ sudo mv /etc/kubernetes/manifests/kube-apiserver.yaml /tmp/
vagrant@master01:~$
vagrant@master01:~$ ll /etc/kubernetes/manifests/
total 12
-rw------- 1 root root 3315 May 12 23:24 kube-controller-manager.yaml
-rw------- 1 root root 1384 May 12 23:24 kube-scheduler.yaml
-rw------- 1 root root 2157 May 12 23:24 etcd.yaml
Сервер API сейчас не работает -
vagrant@master01:~$ k get pods -n kube-system
The connection to the server 10.0.0.2:6443 was refused - did you specify the right host or port?
vagrant@master01:~$
vagrant@master01:~$ sudo mv /tmp/kube-apiserver.yaml /etc/kubernetes/manifests/
vagrant@master01:~$
vagrant@master01:~$ ll /etc/kubernetes/manifests/
total 16
-rw------- 1 root root 3315 May 12 23:24 kube-controller-manager.yaml
-rw------- 1 root root 1384 May 12 23:24 kube-scheduler.yaml
-rw------- 1 root root 2157 May 12 23:24 etcd.yaml
-rw------- 1 root root 3792 May 20 00:08 kube-apiserver.yaml
Сервер API запущен
vagrant@master01:~$ k get pods -n kube-system
NAME READY STATUS RESTARTS AGE
coredns-558bd4d5db-269lt 1/1 Running 5 8d
coredns-558bd4d5db-967d8 1/1 Running 5 8d
etcd-master01 1/1 Running 6 8d
kube-apiserver-master01 0/1 Running 2 24h
kube-controller-manager-master01 1/1 Running 8 8d
kube-proxy-q8mkb 1/1 Running 5 8d
kube-proxy-x6trg 1/1 Running 6 8d
kube-proxy-xxph9 1/1 Running 8 8d
kube-scheduler-master01 1/1 Running 8 8d
weave-net-rh2gb 2/2 Running 18 8d
weave-net-s2cg9 2/2 Running 14 8d
weave-net-wksk2 2/2 Running 11 8d
vagrant@master01:~$
У меня была похожая проблема, но я сделал что-то простое, чтобы обойти это. Я думаю, что это просто systemctl status kube-apiserver
,
Если вышеперечисленное работает, попробуйте эти шаги
На Мастере:
Перезапустите все службы и т. Д. Kube-apiserver kube-controller-manager kube-планировщик flanneld
На рабочем / узле:
Перезапустите все сервисы kube-proxy kubelet flanneld docker
Например:
systemctl restart kube-controller-manager
systemctl enable kube-controller-manager
systemctl status kube-controller-manager
Примечание: если его узел является главным и рабочим. Начните оба на том же узле.
Вышеупомянутые шаги работали для меня (но мы работаем над 1.7). надеюсь, это поможет
Вы можете перезапустить api-сервер, используя:
systemctl restart kube-apiserver.service
Однако, если вы не хотите подключаться к узлу контроллера по SSH, выполните следующую команду:
kubectl -n kube-system delete pod -l 'component=kube-apiserver'