Я пытаюсь запустить самый простой учебник pyspark Spark + Python - см. http://spark.apache.org/docs/0.9.0/quick-start.html
Когда я пытаюсь инициализировать новый SparkContext,
from pyspark import SparkContext
sc = SparkContext("local[4]", "test")
Я получаю следующую ошибку:
ValueError: Cannot run multiple SparkContexts at once
Мне интересно, загрузили ли мои предыдущие попытки запуска кода примера что-то в память, которые не были устранены. Есть ли способ перечислить текущие SparkContexts уже в памяти и/или очистить их, чтобы код примера работал?