Конфигурирование spark-ec2

Я заметил, что когда я запускаю кластер Spark EC2 с моей локальной машины с spark/ec2/spark-ec2 start mycluster процедура установки имеет неприятную привычку уничтожать все, что я помещаю в искру моего кластера /conf/. Если не считать необходимости запуска сценария put-my-configs-back.sh при каждом запуске кластера, существует ли "правильный" способ настройки постоянных конфигураций, которые выдержат остановку / запуск? Или просто лучше?

Я работаю над Spark Master локально и Spark 1.2 в моем кластере.

0 ответов

Другие вопросы по тегам