Я создал на моем ноутбуке искровой автономный кластер, затем я иду в консоль sbt на искровом проекте и пытаюсь встроить искровой экземпляр так:
val conf = new SparkConf().setAppName("foo").setMaster(/* Spark Master URL*/)
val sc = new SparkContext(conf)
До сих пор все работает нормально, затем я пытаюсь
sc.parallelize(Array(1,2,3))
// and I get: java.lang.NoClassDefFoundError: Could not initialize class org.apache.spark.rdd.RDDOperationScope$
Как это исправить?