Я пытаюсь установить Spark на свою локальную машину. Я слежу за этим руководством. Я установил JDK-7
(также есть JDK-8
) и Scala 2.11.7
. Проблема возникает, когда я пытаюсь использовать sbt
для сборки Spark 1.4.1
. Я получаю следующее исключение.
NOTE: The sbt/sbt script has been relocated to build/sbt.
Please update references to point to the new location.
Invoking 'build/sbt assembly' now ...
Attempting to fetch sbt
Launching sbt from build/sbt-launch-0.13.7.jar
Error: Invalid or corrupt jarfile build/sbt-launch-0.13.7.jar
Я искал решение этой проблемы. Я нашел хороший путеводитель qaru.site/info/499525/..., который использует предварительно построенную версию. Помимо использования предварительно построенной версии, существует ли способ установить Spark
с помощью sbt
? Кроме того, есть ли причина, почему возникает ошибка Invalid or corrupt jarfile
?