Неправильный ключ SSL при попытке использовать скрипт spark-ec2 для запуска кластера на EC2?
Версия Apache Spark: spark-1.2.1-bin-hadoop2.4 Платформа: Ubuntu
Я использую сценарий spark-1.2.1-bin-hadoop2.4/ec2/spark-ec2 для создания временных кластеров на ec2 для тестирования. Все работало хорошо.
Затем я начал получать следующую ошибку при попытке запустить кластер:
[Errno 185090050] _ssl.c: 344: ошибка:0B084002: процедуры сертификата x509:X509_load_cert_crl_file: системная библиотека
Я проследил это до следующей строки в сценарии spark_ec2.py:
conn = ec2.connect_to_region (opts.region)
Таким образом, в первый раз, когда скрипт взаимодействует с ec2, он выдает эту ошибку. Spark использует библиотеку Python Boto (включена в загрузку Spark), чтобы сделать этот вызов.
Я предполагаю, что я получаю ошибку из-за плохого файла cacert.pem.
Мой вопрос: какой файл cacert.pem используется, когда я пытаюсь вызвать скрипт spark-ec2, и почему он не работает?
У меня тоже была эта ошибка с spark-1.2.0-bin-hadoop2.4
1 ответ
РЕШЕНО: встроенная библиотека boto, поставляемая вместе со Spark, обнаружила файл конфигурации ~/.boto, который у меня был для другого не-Spark проекта (на самом деле это было для облачных сервисов Google...GCS установил его, я забыл об этом). Это все испортило.
Как только я удалил файл конфигурации ~/.boto, установленный GCS, все снова заработало для Spark!