Как перезагрузить куб-аписервер?

Я перезапустил свою систему сегодня. После этого моя основная система и веб-браузер не подключаются для поиска GUI kubernetes.

Когда я управлял командой systemctl status kube-apiserver.service, это дает вывод, как показано ниже

 kube-apiserver.service
   Loaded: not-found (Reason: No such file or directory)
   Active: inactive (dead)

Может ли кто-нибудь предложить мне, как преодолеть эту проблему.

4 ответа

Вы скачали и установили двоичные файлы Kubernetes Controller напрямую?

1) Если да, проверьте, kube-apiserver.service файл модуля systemd существует:

cat /etc/systemd/system/kube-apiserver.service

2) Если нет, возможно, вы установили K8S с помощью kubeadm.
При такой настройке kubeapi-server работает как под на главном узле:

kubectl get pods -n kube-system
NAME                                       READY   STATUS    
coredns-f9fd979d6-jsn6w                    1/1     Running  ..
coredns-f9fd979d6-tv5j6                    1/1     Running  ..
etcd-master-k8s                            1/1     Running  ..
kube-apiserver-master-k8s                  1/1     Running  .. #<--- Here
kube-controller-manager-master-k8s         1/1     Running  ..
kube-proxy-5kzbc                           1/1     Running  ..
kube-scheduler-master-k8s                  1/1     Running  ..

И не как системный сервис.

Итак, поскольку вы не можете перезапустить поды в K8S, вам придется его удалить:

kubectl delete pod/kube-apiserver-master-k8s -n kube-system

И сразу же будет создан новый модуль.


(*) При запуске kubeadm init вы должны увидеть создание манифестов для статических модулей уровня управления:

.
. 
[control-plane] Using manifest folder "/etc/kubernetes/manifests"
[control-plane] Creating static Pod manifest for "kube-apiserver"
[control-plane] Creating static Pod manifest for "kube-controller-manager"
[control-plane] Creating static Pod manifest for "kube-scheduler"
[etcd] Creating static Pod manifest for local etcd in "/etc/kubernetes/manifests"
.
.

Соответствующие ямлы:

ubuntu@master-k8s:/etc/kubernetes/manifests$ ls -la
total 24
drwxr-xr-x 2 root root 4096 Oct 14 00:13 .
drwxr-xr-x 4 root root 4096 Sep 29 02:30 ..
-rw------- 1 root root 2099 Sep 29 02:30 etcd.yaml
-rw------- 1 root root 3863 Oct 14 00:13 kube-apiserver.yaml <----- Here
-rw------- 1 root root 3496 Sep 29 02:30 kube-controller-manager.yaml
-rw------- 1 root root 1384 Sep 29 02:30 kube-scheduler.yaml

И спецификация kube-apiserver:

apiVersion: v1
kind: Pod
metadata:
  annotations:
    kubeadm.kubernetes.io/kube-apiserver.advertise-address.endpoint: 10.100.102.5:6443
  creationTimestamp: null
  labels:
    component: kube-apiserver
    tier: control-plane
  name: kube-apiserver
  namespace: kube-system
spec:
  containers:
  - command:
    - kube-apiserver
    - --advertise-address=10.100.102.5
    - --allow-privileged=true
    - --authorization-mode=Node,RBAC
    - --client-ca-file=/etc/kubernetes/pki/ca.crt
    - --enable-admission-plugins=NodeRestriction
    - --enable-bootstrap-token-auth=true
    .
    .
    .

переместите файл манифеста kube-apiserver из папки / etc / kubernetes / manifestests во временную папку. Преимущество этого метода в том, что вы можете остановить kube-apiserver до тех пор, пока файл будет удален из папки манифеста.

      vagrant@master01:~$ ll /etc/kubernetes/manifests/
total 16
-rw------- 1 root root 3315 May 12 23:24 kube-controller-manager.yaml
-rw------- 1 root root 1384 May 12 23:24 kube-scheduler.yaml
-rw------- 1 root root 2157 May 12 23:24 etcd.yaml
-rw------- 1 root root 3792 May 20 00:08 kube-apiserver.yaml
vagrant@master01:~$ sudo mv /etc/kubernetes/manifests/kube-apiserver.yaml /tmp/
vagrant@master01:~$ 
vagrant@master01:~$ ll /etc/kubernetes/manifests/
total 12
-rw------- 1 root root 3315 May 12 23:24 kube-controller-manager.yaml
-rw------- 1 root root 1384 May 12 23:24 kube-scheduler.yaml
-rw------- 1 root root 2157 May 12 23:24 etcd.yaml

Сервер API сейчас не работает -

      vagrant@master01:~$ k get pods -n kube-system
The connection to the server 10.0.0.2:6443 was refused - did you specify the right host or port?
vagrant@master01:~$ 

vagrant@master01:~$ sudo mv /tmp/kube-apiserver.yaml /etc/kubernetes/manifests/
vagrant@master01:~$ 
vagrant@master01:~$ ll /etc/kubernetes/manifests/
total 16
-rw------- 1 root root 3315 May 12 23:24 kube-controller-manager.yaml
-rw------- 1 root root 1384 May 12 23:24 kube-scheduler.yaml
-rw------- 1 root root 2157 May 12 23:24 etcd.yaml
-rw------- 1 root root 3792 May 20 00:08 kube-apiserver.yaml

Сервер API запущен

      vagrant@master01:~$ k get pods -n kube-system
NAME                               READY   STATUS    RESTARTS   AGE
coredns-558bd4d5db-269lt           1/1     Running   5          8d
coredns-558bd4d5db-967d8           1/1     Running   5          8d
etcd-master01                      1/1     Running   6          8d
kube-apiserver-master01            0/1     Running   2          24h
kube-controller-manager-master01   1/1     Running   8          8d
kube-proxy-q8mkb                   1/1     Running   5          8d
kube-proxy-x6trg                   1/1     Running   6          8d
kube-proxy-xxph9                   1/1     Running   8          8d
kube-scheduler-master01            1/1     Running   8          8d
weave-net-rh2gb                    2/2     Running   18         8d
weave-net-s2cg9                    2/2     Running   14         8d
weave-net-wksk2                    2/2     Running   11         8d
vagrant@master01:~$ 

У меня была похожая проблема, но я сделал что-то простое, чтобы обойти это. Я думаю, что это просто systemctl status kube-apiserver,

Если вышеперечисленное работает, попробуйте эти шаги

На Мастере:

Перезапустите все службы и т. Д. Kube-apiserver kube-controller-manager kube-планировщик flanneld

На рабочем / узле:

Перезапустите все сервисы kube-proxy kubelet flanneld docker

Например:

systemctl restart kube-controller-manager
systemctl enable kube-controller-manager
systemctl status kube-controller-manager

Примечание: если его узел является главным и рабочим. Начните оба на том же узле.

Вышеупомянутые шаги работали для меня (но мы работаем над 1.7). надеюсь, это поможет

Вы можете перезапустить api-сервер, используя:

systemctl restart kube-apiserver.service

Однако, если вы не хотите подключаться к узлу контроллера по SSH, выполните следующую команду:

kubectl -n kube-system delete pod -l 'component=kube-apiserver'
Другие вопросы по тегам