前提,安装了jdk1.7,scala,hadoop单节点
步骤:
spark-env.sh
加入:
HADOOP_CONF_DIR=/root/------ 表示使用hdfs上的资源,如果需要使用本地资源,请把这一句注销
2,slaves
3,spark-defalts.conf
-----------------------------------------------------------------------------------------------------------------
启动:
cd /root/soft/spark-1.3.1
sbin/start-master.sh 启动master
sbin/start-slaves.sh 启动worker
时间: 2024-10-06 00:09:22