Hadoop/Spark开发环境配置

修改hostname bogon 为localhost

查看ip地址

[[email protected] ~]$ sudo hostname localhost
[[email protected] ~]$ hostname

执行结果

此时python 版本为2.7

将python版本升级至3.0及以上

一、            下载欲升级python版本 Python-3.4.5,将包放于本机与虚似机的共享目录下,上传至虚似机的opt目录下

二、            解压

三、阅读README安装步骤,根据实验步骤向下执行

执行完成后出现Succssfully,恭喜你!安装成功!

四、配置环境变量,让Spark用到新版本的Python。编辑 ~training/.bashrc,添加如下内容,并在相应位置下载ipython3

五、   修改 spark-evn.sh 配置文件中的对应参数PYSPARK_PYTHON,此文件一般在 /etc/spark/conf 或者Spark 安装目录的conf 目录下。

六、 Python和ipython都升级完成,但是spark的版本是1.6的,下面我们开始升级spark

此时我们已经将python升级到3.4.5,但是spark的版本没有改变!!

升级spark

一、将共享文件夹中的要升级的spark版本到opt目录下

二、解压

[[email protected] opt]$ tar -zvxf spark-2.1.0-bin-hadoop2.6.tgz
[[email protected] conf]$ ls /opt/
spark-2.1.0-bin-hadoop2.6.tgz  spark-2.1.0-bin-hadoop2.6

三、修改新版Spark配置文件,将Hadoop、hive 配置文件拷贝到Spark配置文件目录中:

四、安装成功后的页面

五、虽然下载成功了,但是对于一些日常代码的编写与保存不好,所以我们需要下载一个notebook

运行界面

安装matplotlib 库

测试matplotlib 库

import matplotlib.pyplot as plt

from matplotlib.sankey import Sankey

fig = plt.figure(figsize=(8, 9))
ax = fig.add_subplot(1, 1, 1, xticks=[], yticks=[],
                     title="Rankine Power Cycle: Example 8.6 from Moran and "
                     "Shapiro\n\x22Fundamentals of Engineering Thermodynamics "
                     "\x22, 6th ed., 2008")
Hdot = [260.431, 35.078, 180.794, 221.115, 22.700,
        142.361, 10.193, 10.210, 43.670, 44.312,
        68.631, 10.758, 10.758, 0.017, 0.642,
        232.121, 44.559, 100.613, 132.168]  # MW
sankey = Sankey(ax=ax, format=‘%.3G‘, unit=‘ MW‘, gap=0.5, scale=1.0/Hdot[0])
sankey.add(patchlabel=‘\n\nPump 1‘, rotation=90, facecolor=‘#37c959‘,
           flows=[Hdot[13], Hdot[6], -Hdot[7]],
           labels=[‘Shaft power‘, ‘‘, None],
           pathlengths=[0.4, 0.883, 0.25],
           orientations=[1, -1, 0])
sankey.add(patchlabel=‘\n\nOpen\nheater‘, facecolor=‘#37c959‘,
           flows=[Hdot[11], Hdot[7], Hdot[4], -Hdot[8]],
           labels=[None, ‘‘, None, None],
           pathlengths=[0.25, 0.25, 1.93, 0.25],
           orientations=[1, 0, -1, 0], prior=0, connect=(2, 1))
sankey.add(patchlabel=‘\n\nPump 2‘, facecolor=‘#37c959‘,
           flows=[Hdot[14], Hdot[8], -Hdot[9]],
           labels=[‘Shaft power‘, ‘‘, None],
           pathlengths=[0.4, 0.25, 0.25],
           orientations=[1, 0, 0], prior=1, connect=(3, 1))
sankey.add(patchlabel=‘Closed\nheater‘, trunklength=2.914, fc=‘#37c959‘,
           flows=[Hdot[9], Hdot[1], -Hdot[11], -Hdot[10]],
           pathlengths=[0.25, 1.543, 0.25, 0.25],
           labels=[‘‘, ‘‘, None, None],
           orientations=[0, -1, 1, -1], prior=2, connect=(2, 0))
sankey.add(patchlabel=‘Trap‘, facecolor=‘#37c959‘, trunklength=5.102,
           flows=[Hdot[11], -Hdot[12]],
           labels=[‘\n‘, None],
           pathlengths=[1.0, 1.01],
           orientations=[1, 1], prior=3, connect=(2, 0))
sankey.add(patchlabel=‘Steam\ngenerator‘, facecolor=‘#ff5555‘,
           flows=[Hdot[15], Hdot[10], Hdot[2], -Hdot[3], -Hdot[0]],
           labels=[‘Heat rate‘, ‘‘, ‘‘, None, None],
           pathlengths=0.25,
           orientations=[1, 0, -1, -1, -1], prior=3, connect=(3, 1))
sankey.add(patchlabel=‘\n\n\nTurbine 1‘, facecolor=‘#37c959‘,
           flows=[Hdot[0], -Hdot[16], -Hdot[1], -Hdot[2]],
           labels=[‘‘, None, None, None],
           pathlengths=[0.25, 0.153, 1.543, 0.25],
           orientations=[0, 1, -1, -1], prior=5, connect=(4, 0))
sankey.add(patchlabel=‘\n\n\nReheat‘, facecolor=‘#37c959‘,
           flows=[Hdot[2], -Hdot[2]],
           labels=[None, None],
           pathlengths=[0.725, 0.25],
           orientations=[-1, 0], prior=6, connect=(3, 0))
sankey.add(patchlabel=‘Turbine 2‘, trunklength=3.212, facecolor=‘#37c959‘,
           flows=[Hdot[3], Hdot[16], -Hdot[5], -Hdot[4], -Hdot[17]],
           labels=[None, ‘Shaft power‘, None, ‘‘, ‘Shaft power‘],
           pathlengths=[0.751, 0.15, 0.25, 1.93, 0.25],
           orientations=[0, -1, 0, -1, 1], prior=6, connect=(1, 1))
sankey.add(patchlabel=‘Condenser‘, facecolor=‘#58b1fa‘, trunklength=1.764,
           flows=[Hdot[5], -Hdot[18], -Hdot[6]],
           labels=[‘‘, ‘Heat rate‘, None],
           pathlengths=[0.45, 0.25, 0.883],
           orientations=[-1, 1, 0], prior=8, connect=(2, 0))
diagrams = sankey.finish()
for diagram in diagrams:
    diagram.text.set_fontweight(‘bold‘)
    diagram.text.set_fontsize(‘10‘)
    for text in diagram.texts:
        text.set_fontsize(‘10‘)
# Notice that the explicit connections are handled automatically, but the
# implicit ones currently are not.  The lengths of the paths and the trunks
# must be adjusted manually, and that is a bit tricky.

plt.show()

运行结果

时间: 2024-12-15 01:47:26

Hadoop/Spark开发环境配置的相关文章

windows下spark开发环境配置

http://www.cnblogs.com/davidwang456/p/5032766.html windows下spark开发环境配置 --本篇随笔由同事葛同学提供. 特注:windows下开发spark不需要在本地安装hadoop,但是需要winutils.exe.hadoop.dll等文件,前提是你已经安装了eclipse.maven.jdk等软件 spark支持jdk版本建议是1.8及以上,如果开发spark建议将jdk编译版本设置为1.8 我选择的spark是spark-1.4.0

spark开发环境配置

以后spark,mapreduce,mpi可能三者集于同一平台,各自的侧重点有所不用,相当于云计算与高性能计算的集合,互补,把spark的基础看了看,现在把开发环境看看,主要是看源码,最近Apache Spark源码走读系列挺好的,看了些.具体环境配置不是太复杂,具体可以看https://github.com/apache/spark 1.代码下载 git clone https://github.com/apache/spark.git 2.直接构建spark 我是基于hadoop2.2.0的

Spark开发环境配置(windows/Intellij IDEA 篇)

Intellij IDEA是一个蛮不错的IDE,在java/scala/Groovy领域深得人心.笔者之前使用的是Eclipse那一套开发环境,虽然也不错,但忍不住好奇心的驱使,折腾了一下IDEA,发现写起Spark程序来,"哎呦,不错哟!",故总结一下在windows系统中的配置过程(在mac下的配置其实更简单一些),自己琢磨时还是费了点劲的,网上各种教程新旧正误繁杂,好不麻烦,加上笔者工作中最烦的就是各种软件的下载安装配置,有时一个配置没做对,就浪费好长时间.故而将自己摸索过程总结

[Hadoop]基于Eclipse的Hadoop应用开发环境配置

安装Eclipse 下载Eclipse(点击进入下载),解压安装.我安装在/usr/local/software/目录下. 在eclipse上安装hadoop插件 下载hadoop插件(点击进入下载) 把插件放到eclipse/plugins目录下. 重启eclipse,配置hadoop installation directory 如果安装插件成功,打开Window–>Preferens,你会发现Hadoop Map/Reduce选项,在这个选项里你需要配置Hadoop installatio

基于Eclipse的Hadoop应用开发环境配置

启动eclipse,打开窗口 window-->preferences ,配置Hadoop MapReduce的安装路径,在实验环境为/usr/local/hadoop,如下图所示: 2.2.5打开MapReduce视图 点击eclipse菜单Window-->Show View-->Other 窗口,选择 MapReducer Locations,如下图所示: 添加完毕后在视图区域中出现MapReduce视图,同时在视图区域右上方出现蓝色小象的添加按钮,如下图所示 在Map/Reduc

Jupyter配置Spark开发环境

兄弟连大数据培训(www.lampbrother.net )和大家一起探究Jupyter配置 Spark 开发环境 简介 为Jupyter配置Spark开发环境,可以安装全家桶–Spark Kernel或Toree,也可按需安装相关组件. 考虑到一般人更喜欢一步到位,并且Toree将会代替Spark Kernel,故直接且仅需安装Toree即可,不过下面还是给出了所有的安装方法. Spark Kernel的安装 参照Spark Kernel支持的语言,安装好Spark Kernel后,其默认可以

spark开发环境安装配置

在window上安装spark开发环境, 1,安装java http://www.oracle.com/technetwork/java/javase/downloads/index.html 配置环境变量 2,安装scala http://www.scala-lang.org/ 配置环境变量 3,安装idea https://www.jetbrains.com/idea/

Hadoop完全分布式的Eclipse开发环境配置

Hadoop安全分布式的Eclipse开发环境配置 安装Eclipse: 详细见教程:http://blog.csdn.net/wang_zhenwei/article/details/48032001 安装Hadoop-Eclipse-Plugin: 下载 hadoop2x-eclipse-plugin ,将 release 中的 hadoop-eclipse-kepler-plugin-2.2.0.jar (虽然标注的是 2.2.0,但在 2.6.0 下是没问题的,应该在 2.x 版本下都可

在Windows上使用Eclipse配置Hadoop MapReduce开发环境

在Windows上使用Eclipse配置Hadoop MapReduce开发环境 1. 系统环境及所需文件 windows 8.1 64bit Eclipse (Version: Luna Release 4.4.0) hadoop-eclipse-plugin-2.7.0.jar hadoop.dll & winutils.exe 2. 修改Master节点的hdfs-site.xml 添加如下内容 <property> <name>dfs.permissions<