У меня установлен Apache Spark 0.9.0 Cluster, где я пытаюсь развернуть код, который читает файл из HDFS. Эта часть кода выдает предупреждение и, в конце концов, работа завершается неудачно. Вот код
/**
* running the code would fail
* with a warning
* Initial job has not accepted any resources; check your cluster UI to ensure that
* workers are registered and have sufficient memory
*/
object Main extends App {
val sconf = new SparkConf()
.setMaster("spark://labscs1:7077")
.setAppName("spark scala")
val sctx = new SparkContext(sconf)
sctx.parallelize(1 to 100).count
}
Ниже приведено сообщение ПРЕДУПРЕЖДЕНИЕ
Начальная работа не принимала никаких ресурсов; проверьте свой пользовательский интерфейс кластера на убедитесь, что работники зарегистрированы и имеют достаточную память
как избавиться от этого, или я пропущу некоторые конфигурации.