教你如何在win7中的cygwin64下安装hadoop

首先我们要准备如下环境及软件:

win7(64位)

cygwin 1.7.9-1

jdk-6u25-windows-x64.zip

hadoop-0.20.2.tar.gz

1.在win7系统上正常安装jdk,同时注意设置好java环境的变量:

主要的变量包括:JAVA_HOME,PATH,CLASSPATH

(不会设置的请自备梯子)

2.接下来是安装Hadoop,我目前安装的版本为0.20.2版本,为了方便,

我暂时是直接放到了cygwin64的/home目录下(正常情况下,请放在/usr目录下),

并使用tar命令进行解压操作。

[email protected] /home
$ tar -zxvf hadoop-0.20.2.tar.gz

3.光安装完Hadoop是不够的,还需要一些简单的配置工作,主要的配置文件有4个,

它们位于Hadoop的安装目录的conf子目录下,分别是:

hadoop-env.sh
core-site.xml
hdfs-site.xml
mapred-site.xml

下面将是如何修改的详细部分:

(1) 修改hadoop-env.sh文件:

这步比较简单,只需要将JAVA_HOME 修改成JDK 的安装目录即可:

红色标出的是修改后的样子。

# Set Hadoop-specific environment variables here.

# The only required environment variable is JAVA_HOME.  All others are
# optional.  When running a distributed configuration it is best to
# set JAVA_HOME in this file, so that it is correctly defined on
# remote nodes.

# The java implementation to use.  Required.
export JAVA_HOME=/cygdrive/d/android/java/jdk1.7.0_15

# Extra Java CLASSPATH elements.  Optional.
# export HADOOP_CLASSPATH=

# The maximum amount of heap to use, in MB. Default is 1000.
# export HADOOP_HEAPSIZE=2000

# Extra Java runtime options.  Empty by default.
# export HADOOP_OPTS=-server

# Command specific options appended to HADOOP_OPTS when specified
export HADOOP_NAMENODE_OPTS="-Dcom.sun.management.jmxremote $HADOOP_NAMENODE_OPTS"
export HADOOP_SECONDARYNAMENODE_OPTS="-Dcom.sun.management.jmxremote $HADOOP_SECONDARYNAMENODE_OPTS"
export HADOOP_DATANODE_OPTS="-Dcom.sun.management.jmxremote $HADOOP_DATANODE_OPTS"
export HADOOP_BALANCER_OPTS="-Dcom.sun.management.jmxremote $HADOOP_BALANCER_OPTS"
export HADOOP_JOBTRACKER_OPTS="-Dcom.sun.management.jmxremote $HADOOP_JOBTRACKER_OPTS"
# export HADOOP_TASKTRACKER_OPTS=
# The following applies to multiple commands (fs, dfs, fsck, distcp etc)
# export HADOOP_CLIENT_OPTS

# Extra ssh options.  Empty by default.
# export HADOOP_SSH_OPTS="-o ConnectTimeout=1 -o SendEnv=HADOOP_CONF_DIR"

# Where log files are stored.  $HADOOP_HOME/logs by default.
# export HADOOP_LOG_DIR=${HADOOP_HOME}/logs

# File naming remote slave hosts.  $HADOOP_HOME/conf/slaves by default.
# export HADOOP_SLAVES=${HADOOP_HOME}/conf/slaves

# host:path where hadoop code should be rsync‘d from.  Unset by default.
# export HADOOP_MASTER=master:/home/$USER/src/hadoop

# Seconds to sleep between slave commands.  Unset by default.  This
# can be useful in large clusters, where, e.g., slave rsyncs can
# otherwise arrive faster than the master can service them.
# export HADOOP_SLAVE_SLEEP=0.1

# The directory where pid files are stored. /tmp by default.
# export HADOOP_PID_DIR=/var/hadoop/pids

# A string representing this instance of hadoop. $USER by default.
# export HADOOP_IDENT_STRING=$USER

# The scheduling priority for daemon processes.  See ‘man nice‘.
# export HADOOP_NICENESS=10

(注意:这里的路径不能是windows 风格的目录d:\java\jdk1.7.0_15,而是LINUX 风格/cygdrive/d/java/jdk1.7.0_15)

(2) 修改core-site.xml:

红色标出的是增加的代码。

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>
<property>
    <name>fs.default.name</name>
    <value>hdfs://localhost:9000</value>
</property>
</configuration>

(3)修改hdfs-site.xml(指定副本为1)

红色标出的是增加的代码。

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>
<property>
  <name>dfs.replication</name>
  <value>1</value>
</property>
</configuration>

(4) 修改mapred-site.xml (指定jobtracker)

红色标出的是增加的代码。

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>
<property>
  <name>mapred.job.tracker</name>
  <value>localhost:9001</value>
</property>
</configuration>

4.验证安装是否成功,并运行Hadoop

(1) 验证安装

$ bin/hadoop
Usage: hadoop [--config confdir] COMMAND
where COMMAND is one of:
  namenode -format     format the DFS filesystem
  secondarynamenode    run the DFS secondary namenode
  namenode             run the DFS namenode
  datanode             run a DFS datanode
  dfsadmin             run a DFS admin client
  mradmin              run a Map-Reduce admin client
  fsck                 run a DFS filesystem checking utility
  fs                   run a generic filesystem user client
  balancer             run a cluster balancing utility
  jobtracker           run the MapReduce job Tracker node
  pipes                run a Pipes job
  tasktracker          run a MapReduce task Tracker node
  job                  manipulate MapReduce jobs
  queue                get information regarding JobQueues
  version              print the version
  jar <jar>            run a jar file
  distcp <srcurl> <desturl> copy file or directories recursively
  archive -archiveName NAME <src>* <dest> create a hadoop archive
  daemonlog            get/set the log level for each daemon
 or
  CLASSNAME            run the class named CLASSNAME
Most commands print help when invoked w/o parameters.

(2) 格式化并启动Hadoop

$ bin/hadoop namenode –format
15/07/09 10:47:51 INFO namenode.NameNode: STARTUP_MSG:
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG:   host = lenovo-PC/192.168.41.1
STARTUP_MSG:   args = [?Cformat]
STARTUP_MSG:   version = 0.20.2
STARTUP_MSG:   build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-0.20 -r 911707; compiled by ‘chrisdo‘ on Fri Feb 19 08:07:34 UTC 2010
************************************************************/
Usage: java NameNode [-format] | [-upgrade] | [-rollback] | [-finalize] | [-importCheckpoint]
15/07/09 10:47:51 INFO namenode.NameNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at lenovo-PC/192.168.41.1
************************************************************/
$ bin/start-all.sh
starting namenode, logging to /home/hadoop-0.20.2/bin/../logs/hadoop-lenovo-namenode-lenovo-PC.out
localhost: /home/hadoop-0.20.2/bin/slaves.sh: line 61: ssh: command not found
localhost: /home/hadoop-0.20.2/bin/slaves.sh: line 61: ssh: command not found
starting jobtracker, logging to /home/hadoop-0.20.2/bin/../logs/hadoop-lenovo-jobtracker-lenovo-PC.out
localhost: /home/hadoop-0.20.2/bin/slaves.sh: line 61: ssh: command not found

(3) 查看Hadoop

命令行查看:

$ jps
6948 JobTracker
9008 Jps
6748 NameNode

(注意:win7下cygwin中DateNode和TaskTracker进程是无法显示的,应该是cygwin的问题)

现在可以网页查看效果了:

http://localhost:50030

http://localhost:50070

(4) 关闭Hadoop

bin/stop-all.sh

版权申明:本文有部分内容是参考网上的资料,如有疑问请联系,谢谢合作。

时间: 2024-10-05 22:23:02

教你如何在win7中的cygwin64下安装hadoop的相关文章

win7中python3.4下安装scrapy爬虫框架(亲测可用)

貌似最新的scrapy已经支持python3,但是错误挺多的,以下为在win7中的安装步骤: 1.首先需要安装Scrapy的依赖包,包括parsel, w3lib, cryptography, pyOpenSSL,twisted,lxml 其中,twisted和lxml的安装包可以在http://www.lfd.uci.edu/~gohlke/pythonlibs/下载对应的安装包(我的是win64,python34) pip install Twisted-17.1.0-cp34-cp34m-

教你如何在win7中安装cygwin64

首先,说说我们为什么要安装cygwin吧,长期在win7下开发的人员可能不习惯使用unix系统,但由于工作问题,你又被逼要在unix环境下开发,那该如何是好啊?但现在你不用再纠结了,因为有cygwin可以帮你.那么cygwin如何是何方神圣.其实cygwin是一个windows平台上的unix模拟环境,主要是通过重新编译,将posix系统上的软件移植到windows上.相信很多朋友想安装cygwin,但是不知道怎么安装,因为都是英语,对于跟英语感冒的人来说是件痛苦的事,我将和大家分享cygwin

如何在Eclipse中配置Tomcat(免安装版)

如何在Eclipse中配置Tomcat(免安装版) 2013-10-09 23:19wgelgrsh | 分类:JAVA相关 | 浏览642次 分享到: 2013-10-10 17:10提问者采纳 一.确定你的Tomcat的安放路径. 这里我以自己的为例子:“E:\安装包\Apache-tomcat-6.0.29-windows-x86\apache-tomcat-6.0.29”.二.安装Eclipse和jdk(推荐1.4以上)(这个就不详细说了)三.下载插件TomcatPlugin 这里我用的

win7 64位下安装hadoop的eclipse插件并编写运行WordCount程序

win7 64位下安装hadoop的eclipse插件并编写运行WordCount程序 环境: win7 64位 hadoop-2.6.0 步骤: 1.下载hadoop-eclipse-plugin-2.6.0.jar包 2.把hadoop-eclipse-plugin-2.6.0.jar放到eclipse安装目录下的plugins目录下 3.打开eclipse发现左边多出来一个DFS Locations 4.在win7上解压hadoop-2.6.0. 5.下载hadoop.dll.winuti

如何在Centos下安装hadoop并与Eclipse连接?

如何在Centos下安装hadoop并与Eclipse连接? 许久之前就计划学习hadoop了,直到最近才提上日程.花费了一些时间才把centos下的hadoop搭起来,前后经历的"挫折"绝对可以写成数千字的血泪史了.既有被网上教程坑了的苦逼遭遇,也有教研室大超师兄和实习公司的泡哥的爱心支援.今天终于可以坐下来说说如何在Centos下安装hadoop并与Eclipse连接这个问题. 先说一下要准备哪些软件和信息: VMware-workstation: CentOS-6.0-i386-

anaconda环境中---py2.7下安装tf1.0 + py3.5下安装tf1.5

anaconda环境中---py2.7下安装tf1.0 + py3.5下安装tf1.5 @wp20181030 环境:ubuntu18.04, anaconda2, ubuntu系统下事先安装了python2.7.15(默认)和python3.6.5, ..... 这里,利用anaconda 2(自行先安装好),在建立py2.7 和 py3.5的环境,分别安装tf1.0 和 tf1.5,具体的如下: 情况一:py2.7下安装tf1.0. #(1)新建一个test_py2环境[py2+tf1.0]

UEFI+GPT安装WIN7,WIN8/WIN10下安装WIN7双系统

一.BIOS更改 首先来bios更改:我们知道,uefi+gpt引导虽然出来的时间比较长,但是win7还不能完全的支持,所以在使用uefi+gpt安装win7的时候就会出现各种错误!所以我们在安装Windows 7的时候,不能把BIOS设置为“纯UEFI”,并且必须禁用“Secure Boot”.下面我们说说设置,主要有如下设置: 设置:EFI BIOS:BootMode [UEFI/Legacy],设置为UEFI: Launch CSM [Enabled/Disabled],设置为Disabl

教你如何在word中像LaTex那样打出漂亮的数学公式

转载自: http://blog.csdn.net/ibingow/article/details/8613556 记得很久以前在word里打数学公式很痛苦,要用鼠标点啊点,效率奇低,包括像MathType那些工具.后来到了office 2007公式情况就不一样了,编辑器有了巨大的改进,适合我们喜欢用键盘的同学了.几乎所有的数学符号都对应一条命令,而且跟LaTex的命令很像,打起公式来一样.其实最开始我是乱按键盘发现公式编辑器这些功能的,然后凭感觉和经验发现了各种符号的输入方法.相比LaTex,

路由器配置实践 教你如何在Linux中三台主机两个网段互相通信

大家好我是你们的齐天大圣 又到了齐天大圣给大家讲解的时间了 今天我带你们做一个 大大项目 你们信不信 如果把你不小心打开这个文档 希望你能看完 这个博文花费了我两天的时间所以请尊重我的劳动 假装看完好吗 齐天大圣在此谢过各位看官 首先欢迎大家观看操作步骤 我们正式开始 题目: 路由配置实践: 01. 需要按照拓扑结构配置好服务器的网络信息 02. 需要让linux服务器01可以访问linux服务器03,通过linux服务器02进行访问 将linux服务器02变换成为一台路由器 03. 实现lin