spark-submit.sh возвращает 0, если работа не удалась

Я пытаюсь автоматизировать spark-submit.sh скрипт другого приложения. Тем не менее, я заметил, что хотя spark-submit знает об ошибке (он сообщает ERROR: Job failed.), он возвращает ноль, что указывает на то, что spark-submit.sh Сценарий успешно завершен. Увидеть:

./spark-submit.sh --vcap .vcap.json --deploy-mode cluster --master ...
To see the log, in another terminal window run the following command:
tail -f spark-submit_1463130693N.log

...

ERROR: Job failed.
Log file: spark-submit_1463130693N.log
snowch$ echo $?
0

Я мог бы разобрать вывод из spark-submit.sh сценарий для сообщения об ошибке, однако, это не очень надежно. Я использую правильную версию?

snowch$ ./spark-submit.sh --version
spark-submit.sh  VERSION : '1.0.0.0.20160420.1'

Это ошибка с spark-submit.sh скрипт?

1 ответ

Решение

Вы используете правильную версию. Это ошибка. Он должен вернуть код ошибки для этого случая.

Другие вопросы по тегам