Смена метки GKE terraform обрушила весь кластер
Я внес изменения в код терраформирования для пула узлов на GKE, где я только изменил метки, связанные с пулом узлов, и он разрушил весь кластер (включая главный) и воссоздал его. Теперь каждый раз, когда я пытаюсь внести изменения в кластер, независимо от того, насколько он велик или мал, terraform хочет разрушить и воссоздать весь кластер.
Мы используем Terraform Cloud для управления кластером.
Я сделал что-то подобное в коммите для нескольких групп экземпляров:
labels = {
- role = "nodes"
+ "kops.k8s.io/instancegroup" = "nodes"
И это первые несколько строк соответствующего плана терраформ:
An execution plan has been generated and is shown below.
Resource actions are indicated with the following symbols:
-/+ destroy and then create replacement
Terraform will perform the following actions:
# module.kubernetes.google_container_cluster.master must be replaced
-/+ resource "google_container_cluster" "master" {
Единственное, что, как я могу думать, могло вызвать эту проблему, это то, что несколькими коммитами ранее я изменил области групп экземпляров, чтобы они могли читать и писать из Google Storage, но эти изменения уже были применены ко всем группам экземпляров в кластер.
Найдено решение:
Описанная выше проблема была похожа на этого человека:https://github.com/gruntwork-io/terraform-google-gke/issues/59
И решение было добавить ignore_changes
в нашу основную конфигурацию, например:https://github.com/gruntwork-io/terraform-google-gke/pull/60/files
1 ответ
Я внес свою правку в этот ответ:
Описанная выше проблема была похожа на этого человека: https://github.com/gruntwork-io/terraform-google-gke/issues/59
И решение заключалось в том, чтобы добавить ignore_changes в нашу основную конфигурацию следующим образом: https://github.com/gruntwork-io/terraform-google-gke/pull/60/files