Я использую Configafe Config, https://github.com/typesafehub/config, для параметризации задания Spark, выполняющегося в режиме нитевого кластера, с конфигурационным файлом. Поведение Configades Config по умолчанию заключается в поиске пути к классам с именами, соответствующими регулярному выражению, и автоматически загружать их в ваш класс конфигурации с помощью ConfigFactory.load()
(для наших целей предполагаемый файл, который он ищет, называется application.conf
),
Я могу загрузить файл конфигурации в драйвер, используя --driver-class-path <directory containing configuration file>
, но используя --conf spark.executor.extraClassPath=<directory containing configuration file>
, не помещает ресурс на classpath всех исполнителей вроде этого. Исполнители сообщают, что они не могут найти определенный параметр конфигурации для ключа, который существует в файле конфигурации, который я пытаюсь добавить к их классам.
Каков правильный способ добавления файла в пути к классам всех JVM-исполнителей с использованием Spark?