最佳答案
这是另一个论坛上其他人的问题的副本,从来没有得到回答,所以我想我应该在这里重新问它,因为我有同样的问题。(见 http://geekple.com/blogs/feeds/Xgzu7/posts/351703064084736)
我已经在我的机器上正确地安装了 Spark,并且在使用的时候能够使用 pypark 模块运行 Python 程序而没有错误。/bin/pypark 作为我的 Python 解释器。
然而,当我尝试运行常规的 Python shell 时,当我尝试导入 pypark 模块时,我得到了这个错误:
from pyspark import SparkContext
上面写着
"No module named pyspark".
我该怎么补救?是否需要设置一个环境变量将 Python 指向 headers/libraries/etc?如果我的 Spark 安装目录是/spark/,我需要包含哪些 pyspark 路径?或者只能在 pypark 解释器上运行 pypark 程序?