Он говорит в документации Apache Spark " в каждом приложении Spark, несколько" заданий "(действия Spark) могут выполняться одновременно, если они были представлены различными потоками. Может кто-нибудь объяснить, как достичь этого concurrency для следующего образца кода?
SparkConf conf = new SparkConf().setAppName("Simple_App");
JavaSparkContext sc = new JavaSparkContext(conf);
JavaRDD<String> file1 = sc.textFile("/path/to/test_doc1");
JavaRDD<String> file2 = sc.textFile("/path/to/test_doc2");
System.out.println(file1.count());
System.out.println(file2.count());
Эти два задания независимы и должны выполняться одновременно.
Спасибо.