Опции команды Spark-submit --num-executors

У меня есть следующая конфигурация свечи:

1 мастер и 2 рабочих

  • Каждый работник имеет 88 ядер, следовательно, общее количество нет. ядер 176
  • Каждый работник имеет 502 ГБ памяти, поэтому общий объем доступной памяти составляет 1004 ГБ.

Теперь я хочу запустить 40 исполнителей, чтобы не использовались все ядра.

Я бегу ниже команды для того же.

./spark-submit --class com.sample.Transformation --conf spark.sql.shuffle.partitions=5001 --num-executors=40 --executor-cores=1 --executor-memory=5G --master spark://10.180.181.41:7077 "/MyProject/Transformation-0.0.1-SNAPSHOT.jar" > /MyProject/logs/logs12.txt

Здесь я разделил --num-executors=40 еще 176 исполнителей было создано.

В той же команде, когда я изменился --executor-cores=3 было создано 176/3 = 58 исполнителей и использовано 174 ядра.

Похоже, значение --num-executors не учитывается в команде.

Я хочу понять, почему такое поведение команды и что может быть разрешением для одного и того же.

РЕДАКТИРОВАТЬ:

Я не использую автономный режим здесь.

0 ответов

Другие вопросы по тегам