Использование ipython в другой учетной записи Linux: команда застревает

Я установил miniconda3 на одной учетной записи Linux, затем я создал среду py37, установил все необходимые пакеты и смог запустить ipython из второй учетной записи и импортируйте пакет, который я хотел импортировать: hail. Для этого я изменил все разрешения в папке сminiconda3 к 777. Каким-то образом команда при запуске на второй учетной записи застревает, но при выполнении на начальной, гдеminiconda3 установлен, он успешно работает:

     import hail as hl
---> mt = hl.balding_nichols_model(n_populations=3, n_samples=50, n_variants=100)
     mt.count()

Средняя команда застревает. Никакой ошибки, просто не возвращается. Когда я бегуhl.balding_nichols_model в исходной учетной записи он также выдает предупреждение (но работает успешно, давая результат в mt.count()):

ПРЕДУПРЕЖДЕНИЕ NativeCodeLoader: невозможно загрузить библиотеку native-hadoop для вашей платформы... используя встроенные классы java, где это применимо

И дело в том, что в другой учетной записи, где команда не работает, я смонтировал Hadoop. Итак, у меня есть небольшое подозрение, что это как-то связано. Я полностью застрял, поэтому буду признателен за любые предложения. Мне нужно сделать так - установкаminiconda3в одной учетной записи, а затем доступ к ней из другой - потому что в первой учетной записи у меня терабайты данных бесплатно, а во второй - 4 Гб, и, к сожалению, его нельзя расширить. Сminiconda3 Я бы быстро перешагнул границы.

Дополнительную информацию о реальном программном обеспечении можно найти здесь:

https://hail.is/docs/0.2/getting_started.html

Обновить

Я установил отдельно python37 на condaприсутствует на узле и почему-то тоже не работает, так что это не проблема разрешений, и теперь проблема ограничивается этой конкретной учетной записью linux. Я установилspark2.4но это не устранило проблему. Итак, средняя команда в скрипте python застревает, и я даже не знаю, как получитьlog вывод, что там творится.

1 ответ

Решение

Ответ на "застрявшую" проблему можно найти здесь:

https://discuss.hail.is/t/spark-2-4-4-gets-stuck-in-initialization-phase/1178

Я спросил об этом на форуме Hail, а затем ответил сам там после того, как мы исправили проблему. Оказалось, что это проблема с пространством: журналы hadoop и spark должны быть перенаправлены в разные места, когда вам не хватает места в разделе, над которым вы работаете.

Другие вопросы по тегам