1.在官网下载1.3.0源码后执行如下命令:
./make-distribution.sh --tgz --skip-java-test --with-tachyon -Dhadoop.version=2.4.0 -Djava.version=1.7 -Dprotobuf.version=2.5.0 -Pyarn -Phive -Phive-thriftserver
2.参数说明:
- --tgz 生成部署包;
- --skip-java-test 滤过测试阶段;
- --with-tachyon 感觉tachyon是趋势,所以加上tachyon的支持;
- -Dhadoop.version 指定hadoop的版本,默认为1.0.4;
- -Djava.version 指定java版本,默认是1.6;
- -Dprotobuf.version 指定protobuf的版本,默认是2.4.1;这里指定是因为hadoop使用的2.5.0,不修改的话搭配的时候会出问题;
- -Pyarn -Phive -Pthriftserver 分别加入yarn、hive的支持。
3.一个多小时后出现BUILD SUCCESS,即编译成功,可在spark-1.3.0文件夹中找到编译的文件。
时间: 2024-10-05 09:56:54