Ошибка Spark: не удалось инициализировать класс org.apache.spark.rdd.RDDOperationScope

Я создал на моем ноутбуке искровой автономный кластер, затем я иду в консоль sbt на искровом проекте и пытаюсь встроить искровой экземпляр так:

val conf = new SparkConf().setAppName("foo").setMaster(/* Spark Master URL*/)
val sc = new SparkContext(conf)

До сих пор все работает нормально, затем я пытаюсь

sc.parallelize(Array(1,2,3))
// and I get: java.lang.NoClassDefFoundError: Could not initialize class org.apache.spark.rdd.RDDOperationScope$

Как это исправить?

Ответ 1

возможно, вы пропустили следующий lib.

 <dependency>
        <groupId>com.fasterxml.jackson.core</groupId>
        <artifactId>jackson-databind</artifactId>
        <version>2.4.4</version>
   </dependency>