Я уже поздно пробовал apache spark. Мой вопрос более специфичен для запуска искровых работ. Здесь Я поставил вопрос о понимании искровых заданий. После того, как я стал грязным на работе, я перешел к моему требованию.
У меня есть конечная точка REST, где я выставляю API для запуска Jobs, я использовал Spring4.0 для реализации Rest. Теперь я подумал о том, чтобы выполнить Job as Service в Spring, где я буду вводить Job программно, то есть когда запускается конечная точка, с заданными параметрами я бы запускал задание. У меня сейчас мало вариантов дизайна.
-
Как и в приведенном ниже письменном задании, мне нужно поддерживать несколько Джобсов, вызванных абстрактным классом, может быть
JobScheduler
./*Can this Code be abstracted from the application and written as as a seperate job. Because my understanding is that the Application code itself has to have the addJars embedded which internally sparkContext takes care.*/ SparkConf sparkConf = new SparkConf().setAppName("MyApp").setJars( new String[] { "/path/to/jar/submit/cluster" }) .setMaster("/url/of/master/node"); sparkConf.setSparkHome("/path/to/spark/"); sparkConf.set("spark.scheduler.mode", "FAIR"); JavaSparkContext sc = new JavaSparkContext(sparkConf); sc.setLocalProperty("spark.scheduler.pool", "test"); // Application with Algorithm , transformations
-
проходящие выше точки, имеют несколько версий заданий, обрабатываемых службой.
-
Или используйте Spark Job Server для этого.
Во-первых, я хотел бы знать, что является лучшим решением в этом случае, мудрым и масштабируемым.
Примечание. Я использую автономный кластер из искры. любезную помощь.