Почему может произойти сбой команды nohup в Terraform "aws_instance" user_data не запускается при запуске экземпляра
Я использую Terraform v0.11.7 и AWS провайдера 1.30 для создания среды для запуска нагрузочных тестов с помощью саранчи на основе Debian 9.5 AMI.
Мой модуль выставляет num_instances
var используется для определения используемой командной строки locust. Ниже моя конфигурация.
resource "aws_instance" "locust_master" {
count = 1
ami = "${var.instance_ami}"
instance_type = "${var.instance_type}"
key_name = "${var.instance_ssh_key}"
subnet_id = "${var.subnet}"
tags = "${local.tags}"
vpc_security_group_ids = ["${local.vpc_security_group_ids}"]
user_data = <<-EOF
#!/bin/bash
# Install pip on instance.
curl https://bootstrap.pypa.io/get-pip.py -o get-pip.py
sudo python3 get-pip.py
rm get-pip.py
# Install locust and pyzmq on instance.
sudo pip3 install locustio pyzmq
# Write locustfile to instance.
echo "${data.local_file.locustfile.content}" > ${local.locustfile_py}
# Write locust start script to instance.
echo "nohup ${var.num_instances > 1 ? local.locust_master_cmd : local.locust_base_cmd} &" > ${local.start_sh}
# Start locust.
sh ${local.start_sh}
EOF
}
resource "aws_instance" "locust_slave" {
count = "${var.num_instances - 1}"
ami = "${var.instance_ami}"
instance_type = "${var.instance_type}"
key_name = "${var.instance_ssh_key}"
subnet_id = "${var.subnet}"
tags = "${local.tags}"
vpc_security_group_ids = ["${local.vpc_security_group_ids}"]
user_data = <<-EOF
#!/bin/bash
set -x
# Install pip on instance.
curl https://bootstrap.pypa.io/get-pip.py -o get-pip.py
sudo python3 get-pip.py
rm get-pip.py
# Install locust and pyzmq on instance.
sudo pip3 install locustio pyzmq
# Write locustfile to instance.
echo "${data.local_file.locustfile.content}" > ${local.locustfile_py}
# Write locust master dns name to instance.
echo ${aws_instance.locust_master.private_dns} > ${local.locust_master_host_file}
# Write locust start script to instance.
echo "nohup ${local.locust_slave_cmd} &" > ${local.start_sh}
# Start locust.
sh ${local.start_sh}
EOF
}
Если я SSH в locust_master
экземпляр после того, как он был запущен, я вижу /home/admin/start.sh
сценарий, но он, кажется, не был запущен, так как я не вижу nohup.out
файл и locust
не в моих текущих процессах. Если я вручную запустить то же самое sh /home/admin/start.sh
сценария на этом хосте, служба запускается, и я могу отключиться от хоста и по-прежнему получать к нему доступ. Та же проблема выставлена на locust_slave
хост (ы).
Что может вызвать запуск start.sh
в aws_instance user_data потерпеть неудачу? Есть ли какие-либо ошибки, о которых я должен знать при выполнении сценариев в user_data?
Спасибо заранее!
1 ответ
Спасибо за чаевые! Я не знал об этом файле журнала, и это указывало на это. Это была проблема относительного пути. Я предположил, что user_data
команды будут выполняться с /home/admin
как рабочий каталог, так locust
не мог найти locustfile.py
файл. Используя абсолютный путь к locustfile.py
решил проблему.