Это экземпляр другого вопроса на другом форуме, на который никогда не отвечали, поэтому я подумал, что перепрошу его здесь, поскольку у меня такая же проблема. (См. http://geekple.com/blogs/feeds/Xgzu7/posts/351703064084736)
У меня есть Spark правильно установлен на моей машине и я могу запускать программы python с модулями pyspark без ошибок при использовании. /bin/pyspark в качестве моего интерпретатора python.
Однако, когда я пытаюсь запустить обычную оболочку Python, когда я пытаюсь импортировать модули pyspark, я получаю эту ошибку:
from pyspark import SparkContext
и он говорит
"No module named pyspark".
Как я могу это исправить? Есть ли переменная окружения, которую мне нужно установить, чтобы указать Python на заголовки/библиотеки pyspark/etc.? Если моя искра установки/искра/, какие пути pyspark мне нужно включить? Или могут ли программы pyspark запускаться только из интерпретатора pyspark?