Я использую Spark 1.3.0 в кластере из 5 рабочих узлов с 36 ядрами и 58 ГБ памяти каждый. Я хотел бы настроить кластер Spark Standalone со многими исполнителями на одного рабочего.
Я видел объединенный SPARK-1706, однако сразу не ясно, как на самом деле настроить несколько исполнителей.
Вот последняя конфигурация кластера:
spark.executor.cores = "15"
spark.executor.instances = "10"
spark.executor.memory = "10g"
Эти настройки устанавливаются на SparkContext
, когда приложение Spark отправляется в кластер.