Смена метки GKE terraform обрушила весь кластер

Я внес изменения в код терраформирования для пула узлов на GKE, где я только изменил метки, связанные с пулом узлов, и он разрушил весь кластер (включая главный) и воссоздал его. Теперь каждый раз, когда я пытаюсь внести изменения в кластер, независимо от того, насколько он велик или мал, terraform хочет разрушить и воссоздать весь кластер.

Мы используем Terraform Cloud для управления кластером.

Я сделал что-то подобное в коммите для нескольких групп экземпляров:

labels = {
-       role = "nodes"
+       "kops.k8s.io/instancegroup" = "nodes"

И это первые несколько строк соответствующего плана терраформ:

An execution plan has been generated and is shown below.
Resource actions are indicated with the following symbols:
-/+ destroy and then create replacement

Terraform will perform the following actions:

  # module.kubernetes.google_container_cluster.master must be replaced
-/+ resource "google_container_cluster" "master" {

Единственное, что, как я могу думать, могло вызвать эту проблему, это то, что несколькими коммитами ранее я изменил области групп экземпляров, чтобы они могли читать и писать из Google Storage, но эти изменения уже были применены ко всем группам экземпляров в кластер.

Найдено решение:

Описанная выше проблема была похожа на этого человека:https://github.com/gruntwork-io/terraform-google-gke/issues/59

И решение было добавить ignore_changesв нашу основную конфигурацию, например:https://github.com/gruntwork-io/terraform-google-gke/pull/60/files

1 ответ

Решение

Я внес свою правку в этот ответ:

Описанная выше проблема была похожа на этого человека: https://github.com/gruntwork-io/terraform-google-gke/issues/59

И решение заключалось в том, чтобы добавить ignore_changes в нашу основную конфигурацию следующим образом: https://github.com/gruntwork-io/terraform-google-gke/pull/60/files

Другие вопросы по тегам