win11下anaconda安装pyspark

win11下anaconda安装pyspark,第1张

win11下anaconda安装pyspark

1.安装JAVA8,设置JAVA_HOME

2.安装SPARK,设置SPARK_HOME
下载地址
https://spark.apache.org/downloads.html

3.在anaconda中安装相应包
pip install py4j
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple pip -U pyspark
pip install findspark

4.打开Jupyter Notebook,编写测试代码:


import pyspark
from pyspark import SparkContext, SparkConf
import findspark

findspark.init()
conf = SparkConf().setAppName("test").setMaster("local[4]")
sc = SparkContext(conf=conf)
 
print("spark version:", pyspark.__version__)
rdd = sc.parallelize(["hello", "spark"])
print(rdd.collect())

 

欢迎分享,转载请注明来源:内存溢出

原文地址: https://www.outofmemory.cn/zaji/5706197.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-18
下一篇 2022-12-17

发表评论

登录后才能评论

评论列表(0条)

保存