以下是windows环境下安装spark的过程:
1.安装JDK(version:1.8.0.152)
2.安装scala(version:2.11/2.12)
3.安装spark(version:spark-2.3.0-bin-hadoop2.6.tgz)
4.安装wintuils(设置windows系统的环境变量HADOOP_HOME)
以下是spark开发环境搭建:
1.scala插件安装
2.全局JDK和Library的设置
3.配置全局的scala SDK
4.导入spark依赖包(spark-2.3.0-bin-hadoop2.7\spark-2.3.0-bin-hadoop2.7\jars)
原文地址:https://www.cnblogs.com/xiaoshayu520ly/p/9920650.html
时间: 2024-11-05 14:45:16