Контроллер входящего трафика Kubernetes nginx в качестве балансировщика нагрузки получает случайные порты
Я пытаюсь сделать общедоступную панель управления Kubernetes через вход в один главный кластер без операционной системы. Проблема в том, что служба LoadBalancer (контроллер входа nginx), которую я использую, не открывает порты 80/443, которые я ожидал бы открыть / использовать. Вместо этого он берет несколько случайных портов из диапазона 30-32k. Я знаю, что могу установить этот диапазон с помощью--service-node-port-range
но я совершенно уверен, что мне не приходилось делать это год назад на другом сервере. Я что-то упустил?
В настоящее время это мой стек / настройка (чистая установка Ubuntu 16.04):
- Nginx Ingress Controller (устанавливается через Helm)
- МеталлЛБ
- Панель управления Kubernetes
- Kubernetes Dashboard Ingress для публичного развертывания на
<domain>
- Cert-Manager (устанавливается через helm)
k8s-приборная панель-ingress.yaml
apiVersion: extensions/v1beta1
kind: Ingress
metadata:
annotations:
# add an annotation indicating the issuer to use.
cert-manager.io/cluster-issuer: letsencrypt-staging
kubernetes.io/ingress.class: nginx
nginx.ingress.kubernetes.io/ssl-redirect: "true"
nginx.ingress.kubernetes.io/secure-backends: "true"
nginx.ingress.kubernetes.io/backend-protocol: "HTTPS"
name: kubernetes-dashboard-ingress
namespace: kubernetes-dashboard
spec:
rules:
- host: <domain>
http:
paths:
- backend:
serviceName: kubernetes-dashboard
servicePort: 443
path: /
tls:
- hosts:
- <domain>
secretName: kubernetes-dashboard-staging-cert
Это то, что у меня kubectl get svc -A
выглядит как:
NAMESPACE NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
cert-manager cert-manager ClusterIP 10.101.142.87 <none> 9402/TCP 23h
cert-manager cert-manager-webhook ClusterIP 10.104.104.232 <none> 443/TCP 23h
default kubernetes ClusterIP 10.96.0.1 <none> 443/TCP 6d6h
ingress-nginx nginx-ingress-controller LoadBalancer 10.100.64.210 10.65.106.240 80:31122/TCP,443:32697/TCP 16m
ingress-nginx nginx-ingress-default-backend ClusterIP 10.111.73.136 <none> 80/TCP 16m
kube-system kube-dns ClusterIP 10.96.0.10 <none> 53/UDP,53/TCP,9153/TCP 6d6h
kubernetes-dashboard cm-acme-http-solver-kw8zn NodePort 10.107.15.18 <none> 8089:30074/TCP 140m
kubernetes-dashboard dashboard-metrics-scraper ClusterIP 10.96.228.215 <none> 8000/TCP 5d18h
kubernetes-dashboard kubernetes-dashboard ClusterIP 10.99.250.49 <none> 443/TCP 4d6h
Вот еще несколько примеров того, что происходит:
curl -D- http://<public_ip>:31122 -H 'Host: <domain>'
- возвращает 308, поскольку протокол http, а не https. Это ожидается
curl -D- http://<public_ip> -H 'Host: <domain>'
curl: (7) Failed to connect to <public_ip> port 80: Connection refused
- порт 80 закрыт
curl -D- --insecure https://10.65.106.240 -H "Host: <domain>"
- доступ к панели инструментов через внутренний IP-адрес, очевидно, работает, и я получаю правильный html k8s-dashboard.
--insecure
происходит из-за того, что функция Let's encrypt еще не работает, так как проблема acme на порту 80 недоступна.
Итак, чтобы резюмировать, как мне получить 2.
за работой? Например, добраться до службы через 80/443?
РЕДАКТИРОВАТЬ: Nginx Ingress Controller .yaml
apiVersion: v1
kind: Service
metadata:
creationTimestamp: "2020-02-12T20:20:45Z"
labels:
app: nginx-ingress
chart: nginx-ingress-1.30.1
component: controller
heritage: Helm
release: nginx-ingress
name: nginx-ingress-controller
namespace: ingress-nginx
resourceVersion: "1785264"
selfLink: /api/v1/namespaces/ingress-nginx/services/nginx-ingress-controller
uid: b3ce0ff2-ad3e-46f7-bb02-4dc45c1e3a62
spec:
clusterIP: 10.100.64.210
externalTrafficPolicy: Cluster
ports:
- name: http
nodePort: 31122
port: 80
protocol: TCP
targetPort: http
- name: https
nodePort: 32697
port: 443
protocol: TCP
targetPort: https
selector:
app: nginx-ingress
component: controller
release: nginx-ingress
sessionAffinity: None
type: LoadBalancer
status:
loadBalancer:
ingress:
- ip: 10.65.106.240
РЕДАКТИРОВАТЬ 2: Metallb configmap yaml
kind: ConfigMap
metadata:
namespace: metallb-system
name: config
data:
config: |
address-pools:
- name: default
protocol: layer2
addresses:
- 10.65.106.240-10.65.106.250
2 ответа
Итак, чтобы решить второй вопрос, как я предлагал, вы можете использовать hostNetwork: true
параметр для сопоставления порта контейнера с хостом, на котором он работает. Обратите внимание, что это не рекомендуется, и вам всегда следует избегать этого, если у вас нет на то причины.
Пример:
apiVersion: v1
kind: Pod
metadata:
name: nginx
labels:
app: nginx
spec:
hostNetwork: true
containers:
- name: nginx
image: nginx
ports:
- containerPort: 80
hostPort: 80 # this parameter is optional, but recommended when using host network
name: nginx
Когда я развертываю этот yaml, я могу проверить, где запущен модуль, и скрутить порт 80 этого хоста.
root@v1-16-master:~# kubectl get po -owide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
nginx 1/1 Running 0 105s 10.132.0.50 v1-16-worker-2 <none> <none>
Примечание: теперь я знаю, что модуль работает на рабочем узле 2. Мне просто нужен его IP-адрес.
root@v1-16-master:~# kubectl get no -owide
NAME STATUS ROLES AGE VERSION INTERNAL-IP EXTERNAL-IP OS-IMAGE KERNEL-VERSION CONTAINER-RUNTIME
v1-16-master Ready master 52d v1.16.4 10.132.0.48 xxxx Ubuntu 16.04.6 LTS 4.15.0-1052-gcp docker://19.3.5
v1-16-worker-1 Ready <none> 52d v1.16.4 10.132.0.49 xxxx Ubuntu 16.04.6 LTS 4.15.0-1052-gcp docker://19.3.5
v1-16-worker-2 Ready <none> 52d v1.16.4 10.132.0.50 xxxx Ubuntu 16.04.6 LTS 4.15.0-1052-gcp docker://19.3.5
v1-16-worker-3 Ready <none> 20d v1.16.4 10.132.0.51 xxxx Ubuntu 16.04.6 LTS 4.15.0-1052-gcp docker://19.3.5
root@v1-16-master:~# curl 10.132.0.50 2>/dev/null | grep title
<title>Welcome to nginx!</title>
root@v1-16-master:~# kubectl delete po nginx
pod "nginx" deleted
root@v1-16-master:~# curl 10.132.0.50
curl: (7) Failed to connect to 10.132.0.50 port 80: Connection refused
И, конечно, это также работает, если я перейду на общедоступный IP-адрес в своем браузере.
Обновить:
Я не видел редактировать часть вопроса, когда писал этот ответ. это не имеет смысла с учетом предоставленной дополнительной информации. пожалуйста, не обращайте внимания.
оригинал:
очевидно, что в кластере, который вы сейчас используете, настроен входной контроллер через node-port
введите услугу вместо load-balancer
. Чтобы добиться желаемого поведения, вам необходимо изменить конфигурацию входящего контроллера. обратитесь к Nginx ингресс документации контроллера для случаев metalLB, как сделать это.