Не могу запустить pyspark в Jupyter

У меня Windows 10 и я установил спарк, следуя инструкциям:

https://hernandezpaul.wordpress.com/2016/01/24/apache-spark-installation-on-windows-10/

Теперь я открываю свой блокнот jupyter и набираю следующее:

import os
import sys

# Path for spark source folder
os.environ['SPARK_HOME']="c:\\Spark"

# Append pyspark  to Python Path
sys.path.append("C:\\Spark")
sys.path.append("C:\\Spark\\python")
sys.path.append("C:\\Spark\\python\\lib")
sys.path.append("C:\\Spark\\python\\lib\\py4j-0.9-src.zip")

from pyspark import SparkContext
from pyspark import SparkConf

и кажется, что не может загрузить библиотеку аккумуляторов, так как я получаю следующую ошибку:

--------------------------------------------------------------------------- ImportError                               Traceback (most recent call last) <ipython-input-54-68cce399fff2> in <module>()
     12 sys.path.append("C:\\Spark\\python\\pyspark")
     13 
---> 14 from pyspark import SparkContext
     15 from pyspark import SparkConf
     16 

C:\Spark\python\pyspark\__init__.py in <module>()
     39 
     40 from pyspark.conf import SparkConf
---> 41 from pyspark.context import SparkContext
     42 from pyspark.rdd import RDD
     43 from pyspark.files import SparkFiles

C:\Spark\python\pyspark\context.py in <module>()
     26 from tempfile import NamedTemporaryFile
     27 
---> 28 from pyspark import accumulators
     29 from pyspark.accumulators import Accumulator
     30 from pyspark.broadcast import Broadcast

ImportError: cannot import name accumulators

Вот как выглядит мой sys.path, и я считаю, что это правильные папки:

['',
 'C:\\Anaconda2\\python27.zip',
 'C:\\Anaconda2\\DLLs',
 'C:\\Anaconda2\\lib',
 'C:\\Anaconda2\\lib\\plat-win',
 'C:\\Anaconda2\\lib\\lib-tk',
 'C:\\Anaconda2',
 'c:\\anaconda2\\lib\\site-packages\\sphinx-1.3.5-py2.7.egg',
 'c:\\anaconda2\\lib\\site-packages\\setuptools-20.3-py2.7.egg',
 'C:\\Anaconda2\\lib\\site-packages',
 'C:\\Anaconda2\\lib\\site-packages\\win32',
 'C:\\Anaconda2\\lib\\site-packages\\win32\\lib',
 'C:\\Anaconda2\\lib\\site-packages\\Pythonwin',
 'C:\\Anaconda2\\lib\\site-packages\\IPython\\extensions',
 'C:\\Users\\Manuel\\.ipython',
 'C:\\Spark',
 'C:\\Spark\\python',
 'C:\\Spark\\python\\lib',
 'C:\\Spark\\python\\lib\\py4j-0.9-src.zip',
 'C:\\Spark\\python\\pyspark']

Любая помощь будет высоко ценится.

Спасибо!

1 ответ

Это было решено путем установки winutils.exe, как описано в

Разрешение Spark 1.6.0 "java.lang.NullPointerException, не найдено

Другие вопросы по тегам