How to initialize a new Spark Context and executors number on YARN from RStudio

Я работаю с SparkR,

I am able to set Spark Context on YARN with desired number of executors а также executor-cores с такой командой:

spark/bin/sparkR --master yarn-client --num-executors 5 --executor-cores 5

Сейчас я пытаюсь инициализировать новый контекст Spark, но из RStudio, с которым удобнее работать, чем с обычной командной строкой.

Я понял, что для этого мне нужно использовать sparkR.init() функция. Есть вариант master который я поставил yarn-client но как уточнить num-executors или же executor-cores? Вот где я сложил

library(SparkR, lib.loc = "spark-1.5.0-bin-hadoop2.4/R/lib")

sc <- sparkR.init(sparkHome = "spark-1.5.0-bin-hadoop2.4/",
                  master = "yarn-client")

1 ответ

Решение

Обеспечение sparkEnvir аргумент в пользу sparkR.init должно сработать:

sparkEnvir <- list(spark.num.executors='5', spark.executor.cores='5')

sc <- sparkR.init(
    sparkHome = "spark-1.5.0-bin-hadoop2.4/", 
    master = "yarn-client",
    sparkEnvir = sparkEnvir)
Другие вопросы по тегам