Устранение искровых зависимостей с использованием sbt
Я пытался создать очень простой скрипт scala с зависимостями искры. Но я не могу сделать из этого банку.
Произошла ошибка:
sbt.ResolveException: неразрешенная зависимость: org.apache.spark#spark-core_2.12;1.6.0-SNAPSHOT: не найдено
Мой build.sbt:
import Dependencies._
lazy val root = (project in file(".")).
settings(
inThisBuild(List(
organization := "com.example",
scalaVersion := "2.12.1",
version := "0.1.0-SNAPSHOT"
)),
name := "Hello",
libraryDependencies += "org.apache.spark" %% "spark-core" % "1.6.0-SNAPSHOT",
resolvers += Resolver.mavenLocal
)
`
package example
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf
object Hello {
def main(args: Array[String]) {
val logFile = "/Users/dhruvsha/Applications/spark/README.md"
val conf = new SparkConf().setAppName("Simple Application")
val sc = new SparkContext(conf)
val logData = sc.textFile(logFile, 2).cache()
val numAs = logData.filter(line => line.contains("a")).count()
val numBs = logData.filter(line => line.contains("b")).count()
println(s"Lines with a: $numAs, Lines with b: $numBs")
sc.stop()
}
}
Мой источник Scala находится в:
/exampleapp/main/scala/example/Hello.scala
Название проекта - exampleapp .
Scala версия 2.12.2
спарк версия 1.6.0
версия 0.13.13
Мы будем благодарны за любую помощь, и было бы здорово, если бы вы могли предоставить ресурсы для изучения зависимостей sbt и spark.
Пожалуйста, посмотрите, я новичок в Scala, Spark и SBT.
1 ответ
Решение
library dependencies
линия в build.sbt
кажется неправильным
правильно должно быть как
libraryDependencies += "org.apache.spark" % "spark-core_2.10" % "1.6.0"