Описание тега dsx

IBM Data Science Experience - это интерактивная облачная среда для совместной работы, в которой ученые по данным могут использовать несколько инструментов для активации своих идей. Специалисты по обработке данных могут использовать лучшее из открытого исходного кода, использовать уникальные возможности IBM, расширять свои возможности и делиться своими успехами. Источник: http://datascience.ibm.com/blog/welcome-to-the-data-science-experience/
2 ответа

Как использовать функцию "отображения" в Scala 2.11 с ноутбуком Spark 2.0 в DSX

В dsx есть способ использовать "дисплей" в Scala 2.11 с ноутбуком Spark 2.0 (я знаю, что это можно сделать в ноутбуке Python с Pixiedust). Например: display(spark.sql("SELECT COUNT(zip), SUM(pop), city FROM hive_zips_table WHERE state = 'CA' GROUP B…
27 янв '17 в 17:26
1 ответ

Возможно ли для задания "спарк" в bluemix увидеть список других процессов в операционной системе?

Общий подход для подключения к сторонним системам из spark заключается в предоставлении учетных данных для систем в качестве аргументов сценария spark. Однако это поднимает некоторые вопросы о безопасности. Например, посмотрите на этот вопрос. Bluem…
1 ответ

В записных книжках IBM Data Science Experience в Safari иногда показывается "Ошибка подключения" или "Ядро мертвое"

В IBM Data Science Experience при использовании ноутбуков (Python, R, Scala) в браузере Safari иногда ноутбук не подключается к ядру, и после нескольких попыток отображается Connection Failedили же Kernel Dead, Обновление окна браузера не помогает. …
23 дек '16 в 09:27
3 ответа

install.packages("tm") -> "зависимость 'slam' недоступна"

Я пытаюсь установить tm пакет на IBM Data Science Experience (DSX): install.packages("tm") Тем не менее, я решаю эту проблему: "dependency 'slam' is not available" Этот пост предполагает, что версия R 3.3.1 will решить проблему, однако версия R на D…
04 ноя '16 в 09:21
1 ответ

Запланированное задание не запускается, и файлы ядра не создаются.

У меня запланированное задание на блокнот, которое без проблем выполнялось в течение нескольких дней, однако вчера вечером оно прекратилось. Обратите внимание, что я могу запустить работу вручную без проблем. Я поднял предыдущий вопрос по этой теме:…
25 янв '17 в 11:24
1 ответ

Доступны ли ноутбуки на платформе spark как сервисная файловая система?

Я хотел бы исследовать, возможно ли использовать клиент командной строки git, используя %%sh ячейка, чтобы я мог работать непосредственно с ресурсами проекта, такими как скрипты и записные книжки, используя клиент git. Например %%sh git clone ... my…
26 янв '17 в 18:32
1 ответ

Как установить модуль Azure в IBM Data Science Experience

Я пытаюсь импортировать данные Azure в DSx. Я получаю сообщение об ошибке при попытке импортировать модуль. Когда я использую команду "from azure.storage.blob import BlobService" в DSx, она говорит мне, что нет модуля с таким именем. Должен ли я вып…
17 янв '17 в 23:43
1 ответ

matplotlib - ImportError: нет модуля с именем _tkinter

У меня есть простой блокнот со следующим кодом: %matplotlib inline Однако при его запуске я получаю следующую ошибку: ImportError: No module named _tkinter У меня есть еще одна записная книжка в том же проекте, и она способна выполнить заявление без…
2 ответа

Программно определить, работает ли в DSX

Как я могу программно определить, работает ли код Python в моей записной книжке под DSX? Я хотел бы иметь возможность делать разные вещи под локальным ноутбуком Jupyter против DSX.
1 ответ

Как предотвратить запуск pip install ... каждый раз, когда я запускаю весь ноутбук?

Большинство ноутбуков Python, которые я запускаю, обычно нуждаются в некоторой настройке для первоначального запуска, используя ! pip install ... Выполнение кода установки каждый раз при запуске ноутбука неэффективно, поэтому я бы предпочел этого из…
2 ответа

Spark Streaming не учитывает auto.offset.reset="smalllest" или group.id?

Я создаю поток Кафки в Spark 1.6: kafkaProps.setConfig("group.id", UUID.randomUUID().toString()) kafkaProps.createConfiguration() kafkaProps.toImmutableMap.foreach {keyVal => println(keyVal._1 + "=" + keyVal._2)} val ssc = new StreamingContext( s…
2 ответа

Как обмениваться информацией между ноутбуками в проекте DSX

Можно ли обмениваться информацией (например, учетными данными) между несколькими записными книжками в проекте DSX, например, с переменными среды? Например, приложение Cloud Foundry в Bluemix имеет настройку управления, в которой можно определять пер…
20 янв '17 в 18:36
1 ответ

Запись расписания работ не может быть создана. Код статуса: 500

При попытке сохранить запланированное задание DSX я получил следующую ошибку: Запись расписания работ не может быть создана. Код статуса: 500 Скриншот сообщения об ошибке: Я пытался примерно шесть раз за последние несколько часов и постоянно получал…
1 ответ

Опыт работы с данными: как преобразовать ibmdbpy.frame.IdaDataFrame в pandas.core.frame.DataFrame

У меня проблема с ibmdbpy.frame.IdaDataFrame введите опыт работы с данными. У меня есть два кадра данных. Первый из типа ibmdbpy.frame.IdaDataFrame и второй тип pandas.core.frame.DataFrame, Я хотел бы объединить эти два кадра данных, но я не могу...…
06 фев '17 в 08:52
2 ответа

Невозможно сохранить изменения в блокноте jupyter на DSX

Иногда я не могу сохранить изменения в своем ноутбуке в DSX. Я считаю, что это потому, что мой сеанс истек. Как я могу предотвратить потерю моих изменений?
3 ответа

Как устранить неполадки запланированного ноутбука DSX?

У меня есть ноутбук DSX, который я могу запустить вручную, используя пользовательский интерфейс DSX, и он заполняет некоторые данные в базе данных Cloudant. Я запланировал, что ноутбук будет работать каждый час. В одночасье я ожидал, что задание буд…
2 ответа

Преобразование данных тега датчика в DSX

Я работаю над преобразованием существующего рецепта Data Science Experience (DSX) для использования данных с подключенного устройства Sensor Tag. Однако мобильные приложения для этого устройства отправляют данные в виде строк, а не числовых значений…
2 ответа

Как подключиться к DashDB из ноутбука Jupyter в DSX?

Я пытаюсь извлечь некоторые данные из базы данных DashDB и проанализировать их в блокноте Jupyter, все в рамках Data Science Experience (DSX). В идеале мы создали бы DataPrame Pandas для анализа.
24 ноя '16 в 18:32
1 ответ

Как войти в ядро-pyspark-*.log из запланированной записной книжки?

В моей записной книжке я настроил утилиту для ведения журнала, чтобы я мог отлаживать запланированные записные книжки DSX: # utility method for logging log4jLogger = sc._jvm.org.apache.log4j LOGGER = log4jLogger.LogManager.getLogger("CloudantRecomme…
3 ответа

Драйверы Netezza недоступны в Spark (Блокнот Python) в DataScienceExperience

У меня есть код проекта в Python Notebook, и он хорошо работал, когда Spark размещался в Bluemix. Мы выполняем следующий код для подключения к Netezza (локально), который отлично работал в Bluemix. VT = sqlContext.read.format('jdbc').options(url='jd…