Почему может произойти сбой команды nohup в Terraform "aws_instance" user_data не запускается при запуске экземпляра

Я использую Terraform v0.11.7 и AWS провайдера 1.30 для создания среды для запуска нагрузочных тестов с помощью саранчи на основе Debian 9.5 AMI.

Мой модуль выставляет num_instances var используется для определения используемой командной строки locust. Ниже моя конфигурация.

resource "aws_instance" "locust_master" {
  count                   = 1

  ami                     = "${var.instance_ami}"
  instance_type           = "${var.instance_type}"
  key_name                = "${var.instance_ssh_key}"
  subnet_id               = "${var.subnet}"
  tags                    = "${local.tags}"
  vpc_security_group_ids  = ["${local.vpc_security_group_ids}"]

  user_data = <<-EOF
              #!/bin/bash
              # Install pip on instance.
              curl https://bootstrap.pypa.io/get-pip.py -o get-pip.py
              sudo python3 get-pip.py
              rm get-pip.py
              # Install locust and pyzmq on instance.
              sudo pip3 install locustio pyzmq
              # Write locustfile to instance.
              echo "${data.local_file.locustfile.content}" > ${local.locustfile_py}
              # Write locust start script to instance.
              echo "nohup ${var.num_instances > 1 ? local.locust_master_cmd : local.locust_base_cmd} &" > ${local.start_sh}
              # Start locust.
              sh ${local.start_sh}
              EOF
}

resource "aws_instance" "locust_slave" {
  count                   = "${var.num_instances - 1}"

  ami                     = "${var.instance_ami}"
  instance_type           = "${var.instance_type}"
  key_name                = "${var.instance_ssh_key}"
  subnet_id               = "${var.subnet}"
  tags                    = "${local.tags}"
  vpc_security_group_ids  = ["${local.vpc_security_group_ids}"]

  user_data = <<-EOF
              #!/bin/bash
              set -x
              # Install pip on instance.
              curl https://bootstrap.pypa.io/get-pip.py -o get-pip.py
              sudo python3 get-pip.py
              rm get-pip.py
              # Install locust and pyzmq on instance.
              sudo pip3 install locustio pyzmq
              # Write locustfile to instance.
              echo "${data.local_file.locustfile.content}" > ${local.locustfile_py}
              # Write locust master dns name to instance.
              echo ${aws_instance.locust_master.private_dns} > ${local.locust_master_host_file}
              # Write locust start script to instance.
              echo "nohup ${local.locust_slave_cmd} &" > ${local.start_sh}
              # Start locust.
              sh ${local.start_sh}
              EOF
}

Если я SSH в locust_master экземпляр после того, как он был запущен, я вижу /home/admin/start.sh сценарий, но он, кажется, не был запущен, так как я не вижу nohup.out файл и locust не в моих текущих процессах. Если я вручную запустить то же самое sh /home/admin/start.sh сценария на этом хосте, служба запускается, и я могу отключиться от хоста и по-прежнему получать к нему доступ. Та же проблема выставлена ​​на locust_slave хост (ы).

Что может вызвать запуск start.sh в aws_instance user_data потерпеть неудачу? Есть ли какие-либо ошибки, о которых я должен знать при выполнении сценариев в user_data?

Спасибо заранее!

1 ответ

Спасибо за чаевые! Я не знал об этом файле журнала, и это указывало на это. Это была проблема относительного пути. Я предположил, что user_data команды будут выполняться с /home/admin как рабочий каталог, так locust не мог найти locustfile.py файл. Используя абсолютный путь к locustfile.py решил проблему.

Другие вопросы по тегам