Как увеличить память, доступную для узлов-исполнителей Apache?
У меня есть файл размером 2 ГБ, подходящий для загрузки в Apache Spark. На данный момент я запускаю искру apache на 1 машине, поэтому драйвер и исполнитель находятся на одной машине. Аппарат имеет 8 ГБ памяти.
Когда я пытаюсь подсчитать строки файла после установки файла, который будет кэшироваться в памяти, я получаю следующие ошибки:
2014-10-25 22:25:12 WARN CacheManager:71 - Not enough space to cache partition rdd_1_1 in memory! Free memory is 278099801 bytes.
Я посмотрел документацию здесь и установил spark.executor.memory
в 4g
в $SPARK_HOME/conf/spark-defaults.conf
Пользовательский интерфейс показывает, что эта переменная задана в Spark Environment. Вы можете найти скриншот здесь
Однако, когда я перехожу на вкладку Executor, предел памяти для моего единственного Executor по-прежнему установлен на 265,4 МБ. Я также по-прежнему получаю ту же ошибку.
Я пробовал различные вещи, упомянутые здесь, но я все еще получаю сообщение об ошибке и не имею четкого представления о том, где я должен изменить настройку.
Я запускаю свой код в интерактивном режиме из искровой оболочки