Из документации Spark понимается Планирование внутри приложения:
Внутри данного приложения Spark (экземпляр SparkContext) несколько параллельных заданий могут выполняться одновременно, если они были отправлены из отдельных потоков. Под "заданием" в этом разделе мы подразумеваем действие Spark (например, сохранение, сбор) и любые задачи, которые необходимо выполнить для оценки этого действия. Планировщик Sparks полностью потокобезопасен и поддерживает этот прецедент, чтобы включить приложения, которые обслуживают несколько запросов (например, запросы для нескольких пользователей).
Я мог бы найти несколько примеров кода в Scala и Java. Может ли кто-нибудь привести пример того, как это можно реализовать с помощью PySpark?