经过两天的努力,我发现了问题所在。我将以下内容作为Windows环境变量添加到“ PATH”变量中:
C:/Spark/spark-1.4.1-bin-hadoop2.6/python/pyspark
C:\Python27
记住,您需要将目录更改为安装spark的位置,并且对于python也是一样。另一方面,我不得不提到我正在使用包含Hadoop的spark的预构建版本。
祝大家好运。
java.io.IOException:无法在Pycharm中使用Spark运行程序“ python”(Windows)
经过两天的努力,我发现了问题所在。我将以下内容作为Windows环境变量添加到“ PATH”变量中:
C:/Spark/spark-1.4.1-bin-hadoop2.6/python/pyspark
C:\Python27
记住,您需要将目录更改为安装spark的位置,并且对于python也是一样。另一方面,我不得不提到我正在使用包含Hadoop的spark的预构建版本。
祝大家好运。