Сбой действия Oozie Spark для среды Kerberos
Я управляю искровой работой через зажигательную игру. Работа с искрой использует hivecontext для выполнения некоторых требований. Кластер настроен с Kerberos. Когда я отправляю задание с помощью консоли формы spark-submit, оно успешно выполняется. Но когда я запускаю задание из oozie, получаю следующую ошибку.
18/03/18 03:34:16 INFO metastore: Trying to connect to metastore with URI thrift://localhost.local:9083
18/03/18 03:34:16 ERROR TSaslTransport: SASL negotiation failure
javax.security.sasl.SaslException: GSS initiate failed [Caused by GSSException: No valid credentials provided (Mechanism level: Failed to find any Kerberos tgt)]
at com.sun.security.sasl.gsskerb.GssKrb5Client.evaluateChallenge(GssKrb5Client.java:211)
at org.apache.thrift.transport.TSaslClientTransport.handleSaslStartMessage(TSaslClientTransport.java:94)
workflow.xml
<workflow-app xmlns="uri:oozie:workflow:0.5" name="workflow">
<start to="analysis" />
<!-- Bash script to do the spark-submit. The version numbers of these actions are magic. -->
<action name="Analysis">
<spark xmlns="uri:oozie:spark-action:0.1">
<job-tracker>${jobTracker}</job-tracker>
<name-node>${nameNode}</name-node>
<master>${master}</master>
<name>Analysis</name>
<class>com.demo.analyzer</class>
<jar>${appLib}</jar>
<spark-opts>--jars ${sparkLib} --files ${config},${hivesite} --num-executors ${NoOfExecutors} --executor-cores ${ExecutorCores} --executor-memory ${ExecutorMemory} --driver-memory ${driverMemory}</spark-opts>
</spark>
<ok to="sendEmail" />
<error to="fail" />
</action>
<action name="sendEmail">
<email xmlns="uri:oozie:email-action:0.1">
<to>${emailToAddress}</to>
<subject>Output of workflow ${wf:id()}</subject>
<body>Results from line count: ${wf:actionData('shellAction')['NumberOfLines']}</body>
</email>
<ok to="end" />
<error to="end" />
</action>
<!-- You wish you'd ever get Oozie errors. -->
<kill name="fail">
<message>Bash action failed, error message[${wf:errorMessage(wf:lastErrorNode())}]</message>
</kill>
<end name="end" />
</workflow-app>
Нужно ли мне настраивать что-либо связанное с Kerberos в workflow.xml? Я что-то здесь упускаю?
Любая помощь приветствуется.
Заранее спасибо.
2 ответа
Вы должны добавить учетные данные hcat для экономичного URI в рабочем процессе oozie. Это включит успешную аутентификацию metastore для экономичного URI с использованием Kerberos.
Добавьте тег ниже учетных данных в рабочем процессе oozie.
<credentials>
<credential name="credhive" type="hcat">
<property>
<name>hcat.metastore.uri</name>
<value>${thrift_uri}</value>
</property>
<property>
<name>hcat.metastore.principal</name>
<value>${principal}</value>
</property>
</credential>
</credentials>
И предоставить полномочия spark
действие, как показано ниже:
<action name="Analysis" cred="credhive">
<spark xmlns="uri:oozie:spark-action:0.1">
<job-tracker>${jobTracker}</job-tracker>
<name-node>${nameNode}</name-node>
<master>${master}</master>
<name>Analysis</name>
<class>com.demo.analyzer</class>
<jar>${appLib}</jar>
<spark-opts>--jars ${sparkLib} --files ${config},${hivesite} --num-executors ${NoOfExecutors} --executor-cores ${ExecutorCores} --executor-memory ${ExecutorMemory} --driver-memory ${driverMemory}</spark-opts>
</spark>
<ok to="sendEmail" />
<error to="fail" />
</action>
thrift_uri
а также principal
можно найти в hive-site.xml
, thrift_uri будет установлен в свойстве hive-site.xml:
<property>
<name>hive.metastore.uris</name>
<value>thrift://xxxxxx:9083</value>
</property>
Кроме того, принципал будет установлен в свойстве hive-site.xml:
<property>
<name>hive.metastore.kerberos.principal</name>
<value>hive/_HOST@domain.COM</value>
</property>
Загрузите таблицу ключей на сервер, а затем укажите этот файл и учетные данные ключа в качестве параметров спарк-оптов в вашем рабочем процессе. Дайте мне знать, если это работает или нет. Благодарю.
<spark-opts>--keytab nagendra.keytab --principal "nagendra@domain.com"
--jars ${sparkLib} --files ${config},${hivesite} --num-executors ${NoOfExecutors} --executor-cores ${ExecutorCores} --executor-memory
${ExecutorMemory} --driver-memory ${driverMemory}</spark-opts>