У меня есть приложение Apache Spark, работающее на кластере YARN (искра имеет 3 узла в этом кластере) в режиме кластера.
Когда приложение запускается, Spark-UI показывает, что на третьем node работают 2 исполнителя (каждый из которых работает с другим node) и драйвер. Я хочу, чтобы приложение использовало больше исполнителей, поэтому я попытался добавить аргумент --num-executors в Spark-submit и установить его в 6.
spark-submit --driver-memory 3G --num-executors 6 --class main.Application --executor-memory 11G --master yarn-cluster myJar.jar <arg1> <arg2> <arg3> ...
Однако число исполнителей остается равным 2.
В искровом UI я вижу, что параметр spark.executor.instances равен 6, как я и предполагал, и как-то все еще есть только 2 исполнителя.
Я даже попытался установить этот параметр из кода
sparkConf.set("spark.executor.instances", "6")
Опять же, я вижу, что параметр был установлен в 6, но все еще есть только 2 исполнителя.
Кто-нибудь знает, почему я не мог увеличить количество моих исполнителей?
yarn.nodemanager.resource.memory-mb - 12 г в файле пряжи .xml