Многопоточность и динамическое распределение Spark Job Server
У меня были довольно большие ожидания от Spark Job Server, но я обнаружил, что в нем критически не хватает документации.
Не могли бы вы ответить на один / все следующие вопросы:
- Spark Job Server отправляет задания через сеанс Spark?
- Можно ли запустить несколько заданий параллельно с Spark Job Server? Я видел, что люди столкнулись с некоторыми проблемами, я еще не видел решения.
- Можно ли параллельно запускать несколько заданий с разными процессорами, ядрами, конфигами исполнителей?
1 ответ
Решение
- SparkServer не поддерживает SparkSession. Мы будем работать над этим.
- Либо вы можете создать несколько контекстов, либо запустить контекст для использования планировщика FAIR.
- Используйте разные контексты с разными конфигурациями ресурсов.
По сути, сервер заданий - это просто API отдыха для создания искровых контекстов. Таким образом, вы должны быть в состоянии сделать то, что вы могли бы сделать с контекстом искры.