Невозможно получить внешний IP-адрес в кластере голого металла kubernetes
Я пытаюсь создать голый металлический кластер Kubernetes. У меня настроен базовый кластер, нет проблем, но я не могу заставить правильно работать MetalLB для предоставления внешнего IP-адреса службе.
Моя конечная цель - иметь возможность развернуть приложение с 2+ репликами и иметь один IP/ порт, на который я могу ссылаться, чтобы попасть в любой из запущенных экземпляров.
Пока что я сделал (чтобы проверить это):
kubectl apply -f https://raw.githubusercontent.com/google/metallb/v0.7.3/manifests/metallb.yaml
kubectl apply -f metallb-layer-2.yml
kubectl run nginx --image=nginx --port=80
kubectl expose deployment nginx --type=LoadBalancer --name=nginx-service
metallb-слой-2.yml:
apiVersion: v1
kind: ConfigMap
metadata:
namespace: metallb-system
name: config
data:
config: |
address-pools:
- name: k8s-master-ip-space
protocol: layer2
addresses:
- 192.168.0.240-192.168.0.250
а потом, когда я бегу kubectl get svc
, Я получил:
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
nginx-service LoadBalancer 10.101.122.140 <pending> 80:30930/TCP 9m29s
Независимо от того, что я делаю, я не могу получить у службы внешний IP. У кого-нибудь есть идея?
РЕДАКТИРОВАТЬ: После нахождения другого поста об использовании NodePort я сделал следующее:
iptables -A FORWARD -j ACCEPT
нашел здесь.
Теперь, к сожалению, когда я пытаюсь свернуть конечную точку nginx, я получаю:
> kubectl get svc
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
nginx-service LoadBalancer 10.101.122.140 192.168.0.240 80:30930/TCP 13h
> curl 192.168.0.240:30930
curl: (7) Failed to connect to 192.168.0.240 port 30930: No route to host
> curl 192.168.0.240:80
curl: (7) Failed to connect to 192.168.0.240 port 80: No route to host
Я не уверен, что именно это значит сейчас.
РЕДАКТИРОВАТЬ 2: Когда я делаю TCP-дамп на работнике, где работает модуль, я получаю:
15:51:44.705699 IP 192.168.0.223.54602 > 192.168.0.240.http: Flags [S], seq 1839813500, win 29200, options [mss 1460,sackOK,TS val 375711117 ecr 0,nop,wscale 7], length 0
15:51:44.709940 ARP, Request who-has 192.168.0.240 tell 192.168.0.169, length 28
15:51:45.760613 ARP, Request who-has 192.168.0.240 tell 192.168.0.169, length 28
15:51:45.775511 IP 192.168.0.223.54602 > 192.168.0.240.http: Flags [S], seq 1839813500, win 29200, options [mss 1460,sackOK,TS val 375712189 ecr 0,nop,wscale 7], length 0
15:51:46.800622 ARP, Request who-has 192.168.0.240 tell 192.168.0.169, length 28
15:51:47.843262 IP 192.168.0.223.54602 > 192.168.0.240.http: Flags [S], seq 1839813500, win 29200, options [mss 1460,sackOK,TS val 375714257 ecr 0,nop,wscale 7], length 0
15:51:47.843482 ARP, Request who-has 192.168.0.240 tell 192.168.0.169, length 28
15:51:48.880572 ARP, Request who-has 192.168.0.240 tell 192.168.0.169, length 28
15:51:49.774953 ARP, Request who-has 192.168.0.240 tell 192.168.0.223, length 46
15:51:49.920602 ARP, Request who-has 192.168.0.240 tell 192.168.0.169, length 28
1 ответ
Поработав с сопровождающим MetalLB, он смог выяснить, в чем проблема с новым межсетевым экраном nftables Debian Buster. Отключить,
# update-alternatives --set iptables /usr/sbin/iptables-legacy
# update-alternatives --set ip6tables /usr/sbin/ip6tables-legacy
# update-alternatives --set arptables /usr/sbin/arptables-legacy
# update-alternatives --set ebtables /usr/sbin/ebtables-legacy
и перезапустите узлы в кластере!