Использование ipython в другой учетной записи Linux: команда застревает
Я установил miniconda3
на одной учетной записи Linux, затем я создал среду py37
, установил все необходимые пакеты и смог запустить ipython
из второй учетной записи и импортируйте пакет, который я хотел импортировать: hail
. Для этого я изменил все разрешения в папке сminiconda3
к 777
. Каким-то образом команда при запуске на второй учетной записи застревает, но при выполнении на начальной, гдеminiconda3
установлен, он успешно работает:
import hail as hl
---> mt = hl.balding_nichols_model(n_populations=3, n_samples=50, n_variants=100)
mt.count()
Средняя команда застревает. Никакой ошибки, просто не возвращается. Когда я бегуhl.balding_nichols_model
в исходной учетной записи он также выдает предупреждение (но работает успешно, давая результат в mt.count()
):
ПРЕДУПРЕЖДЕНИЕ NativeCodeLoader: невозможно загрузить библиотеку native-hadoop для вашей платформы... используя встроенные классы java, где это применимо
И дело в том, что в другой учетной записи, где команда не работает, я смонтировал Hadoop. Итак, у меня есть небольшое подозрение, что это как-то связано. Я полностью застрял, поэтому буду признателен за любые предложения. Мне нужно сделать так - установкаminiconda3
в одной учетной записи, а затем доступ к ней из другой - потому что в первой учетной записи у меня терабайты данных бесплатно, а во второй - 4 Гб, и, к сожалению, его нельзя расширить. Сminiconda3
Я бы быстро перешагнул границы.
Дополнительную информацию о реальном программном обеспечении можно найти здесь:
https://hail.is/docs/0.2/getting_started.html
Обновить
Я установил отдельно python37
на conda
присутствует на узле и почему-то тоже не работает, так что это не проблема разрешений, и теперь проблема ограничивается этой конкретной учетной записью linux. Я установилspark2.4
но это не устранило проблему. Итак, средняя команда в скрипте python застревает, и я даже не знаю, как получитьlog
вывод, что там творится.
1 ответ
Ответ на "застрявшую" проблему можно найти здесь:
https://discuss.hail.is/t/spark-2-4-4-gets-stuck-in-initialization-phase/1178
Я спросил об этом на форуме Hail, а затем ответил сам там после того, как мы исправили проблему. Оказалось, что это проблема с пространством: журналы hadoop и spark должны быть перенаправлены в разные места, когда вам не хватает места в разделе, над которым вы работаете.