Dask — создание нового кластера завершается сбоем, файлы HDFS принадлежат пользователю «dask»

У меня есть setup dask на пограничном узле моего кластера MapR, следуя приведенным здесь инструкциям: https://gateway.dask.org/install-hadoop.html .

В соответствии с этими указаниями я тестирую установку, запустив следующее в записной книжке ipython, созданной JupyterHub:

      from dask_gateway import Gateway
gateway = Gateway("http://sa1x-hadoopedg-np1.hchc.local:9010")
cluster = gateway.new_cluster()

Однако, когда он пытается запустить новый кластер через YARN, я получаю следующую ошибку в журнале приложения YARN:

      Diagnostics: User a059571(user id 1425180742) does not have access to maprfs:///user/a059571/.skein/application_1605411890003_0222/809B8EAF0CC3524F90366F449C11C97E/tmpv8cbv2ag

Несмотря на то, что dask должен работать как запрашивающий пользователь (в данном случае a059571), похоже, что он создает каталоги как пользователь, запускающий сервер dask-gateway-server (в данном случае пользователь mapr):

      hdfs dfs -ls -d maprfs:///user/a059571/.skein/application_1605411890003_0222
drwx------   - mapr mapr  7 2021-01-19 17:37 maprfs:///user/a059571/.skein/application_1605411890003_0222

Я чувствую, что упускаю что-то очевидное.

Вот мои конфиги, для полного раскрытия:

/etc/dask-шлюз/dask_gateway_config.py

      c.DaskGateway.backend_class = (
    "dask_gateway_server.backends.yarn.YarnBackend"
)
c.DaskGateway.address= '12.190.113.133:9010'
c.Proxy.address = '12.190.113.133:9011'
c.Proxy.tcp_address = '12.190.113.133:9012'
c.YarnClusterConfig.scheduler_cmd = "/opt/anaconda3/bin/dask-scheduler"
c.YarnClusterConfig.worker_cmd = "/opt/anaconda3/bin/dask-worker"
c.YarnClusterConfig.queue = 'root.default'
c.DaskGateway.log_level= 'DEBUG'

Фрагмент из моего core_site.xml

        <property>
    <name>hadoop.proxyuser.mapr.hosts</name>
    <value>*</value>
  </property>
  <property>
    <name>hadoop.proxyuser.mapr.groups</name>
    <value>*</value>
  </property>

И несколько интересных строк из логов dask-gateway-server:

      [DaskGateway] - HTTP routes listening at http://12.190.113.133:9011
[DaskGateway] - Scheduler routes listening at gateway://12.190.113.133:9012
[Proxy] Unexpected failure fetching routing table, retrying in 0.5s: Get http://12.190.113.133:9010/api/v1/routes: dial tcp 12.190.113.133:9010: connect: connection refused
[DaskGateway] Removed 0 expired clusters from the database
[Proxy] Unexpected failure fetching routing table, retrying in 1.0s: Get http://12.190.113.133:9010/api/v1/routes: dial tcp 12.190.113.133:9010: connect: connection refused
[Proxy] Unexpected failure fetching routing table, retrying in 2.0s: Get http://12.190.113.133:9010/api/v1/routes: dial tcp 12.190.113.133:9010: connect: connection refused
[Proxy] Unexpected failure fetching routing table, retrying in 4.0s: Get http://12.190.113.133:9010/api/v1/routes: dial tcp 12.190.113.133:9010: connect: connection refused
INFO skein.Driver: Driver started, listening on 44262
[DaskGateway] Backend started, clusters will contact api server at http://12.190.113.133:9011/api
[DaskGateway] Dask-Gateway server started
[DaskGateway] - Private API server listening at http://12.190.113.133:9010

Примечание: sa1x-hadoopedg-np1.hchc.local == 12.190.113.133, сервер RHEL 7.x. Кластер MapR 6.x.

0 ответов

Другие вопросы по тегам