Livy: запустить искровое задание в режиме пряжи <работает только в локальном режиме>
Не удается запустить задание Spark в режиме пряжи (кластер или клиент) через Livy, я могу запустить задание Spark с использованием Livy, но задания работают в локальном режиме и не отображаются в диспетчере ресурсов. Я хочу запустить эти задания в режиме кластера пряжи.
Я использую Hortonworks HDP 2.6.1 Hadoop. HDP2.6.1 имеет две версии spark (2.1.1 и spark 1.6.3) и две версии livy (1 и 2).
У нас есть Ambari для просмотра / изменения файлов conf.
Мы внесли изменения в следующие файлы:-
- /usr/hdp/2.6.1.0-129/etc/livy/conf.dist/conf/livy.conf
- /usr/hdp/current/livy-server/conf/livy-env.sh
- /usr/hdp/2.6.1.0-129/spark/conf/spark-defaults.conf
Добавленные ниже свойства в вышеуказанных файлах:-
- спарк.мастер-пряжа-кластер
- кластер spark.submit.deployMode
======== данные =========
data = {
'code': textwrap.dedent("""
print(sc.applicationId)
""")
}
======== команда curl =========
curl hdpmaster:8998/sessions/0/statements -X POST -H 'Content-Type: application/json' -d '{"code":"1 + 1"}'
Может кто-нибудь помочь, пожалуйста, в каком файле конфигурации нам нужно внести изменения, чтобы запустить искровое задание в режиме пряжи?
1 ответ
Поскольку вы не можете установить мастер-параметр в своей конфигурации задания, он может принимать то, что установлено в банке, то есть "локально". Проверьте ваш код, может быть, вы жестко закодировали значение