apache-spark: как использовать внешние пакеты в Spark/Scala
Я новичок в мире Spark / Scala. Я хочу использовать сторонние пакеты SparkPackages https://github.com/databricks/spark-xml и https://github.com/databricks/spark-csv. Я проверил в файле readme и не понимаю, как это сделать. Кто-нибудь может мне объяснить?
Моя цель - взять файл данных xml и преобразовать его в файл csv. Я нашел эту страницу с хорошими объяснениями.
Я использую Unix Spark версии 2.2.0 Cloudera4 Scala версии 2.11.8