Редактирование Spark-модуля в Spark-ядре

В настоящее время мы редактируем конкретный модуль в Spark. Мы используем спарк-ядро https://github.com/ibm-et/spark-kernel для запуска всех наших искровых заданий. Итак, мы снова скомпилировали отредактированный код. Это создает файл JAR. Однако мы не знаем, как указать код в файле jar.

Похоже, что он снова ссылается на старый скрипт, а не на вновь отредактированный и вновь скомпилированный. Есть ли у вас какие-либо идеи о том, как изменить некоторые пакеты / модули spark и отразить изменения с помощью spark-kernel? Если мы не собираемся использовать spark-kernel, есть ли способ отредактировать определенный модуль в spark, например, модуль ALS в spark: https://github.com/apache/spark/blob/master/mllib/src/main/scala/org/apache/spark/ml/recommendation/ALS.scala. Спасибо!

1 ответ

Решение

Вы, вероятно, отредактировали scala или же java файл и перекомпилированы (даже если вы называете их скриптами, они не являются скриптами в строгом смысле, потому что они не интерпретируются). Предполагая, что это то, что вы сделали....

Возможно, у вас нет чистой замены получающегося файла JAR в тестируемом развертывании. Скорее всего, ваш недавно скомпилированный файл JAR находится где-то, но не в том месте, где вы наблюдаете. Чтобы получить его правильно, вам нужно будет собрать больше, чем JAR-файл, вам нужно будет повторно упаковать его и установить заново.

Существуют и другие методы, если вы можете определить распакованный элемент в установке, иногда вы можете скопировать его на месте; тем не менее, такая техника по своей сути не поддерживается, поэтому я рекомендую ее только после полной проверки изменений, а не в любой системе, которая будет использоваться.

Имейте в виду, что в Spark рабочие узлы иногда развертываются динамически. Если это так, вам, возможно, придется найти устанавливаемую систему динамического развертывания и убедиться, что у вас там тоже есть нужная упаковка.

Другие вопросы по тегам