Мой текущий подход Java/Spark Unit Test работает (подробный здесь), создавая экземпляр SparkContext, используя "локальные" и запущенные модульные тесты с использованием JUnit.
Код должен быть организован для ввода/вывода в одной функции, а затем для вызова другого с несколькими RDD.
Это отлично работает. У меня очень проверенное преобразование данных, написанное на Java + Spark.
Могу ли я сделать то же самое с Python?
Как я могу запустить тесты Spark с помощью Python?