Ubuntu环境下手动配置Hadoop

配置Hadoop

前提时已经配置过JDK和SSH

(如何配置JDK:http://www.cnblogs.com/xxx0624/p/4164744.html)

(如何配置SSH:http://www.cnblogs.com/xxx0624/p/4165252.html)

1. 添加Hadoop用户

sudo addgroup hadoop
sudo adduser --ingroup hadoop hadoopsudo usermod -aG admin hadoop

2. 下载Hadoop文件(例:Hadoop1.2.1,我放的时/home/xxx0624/hadoop)

sudo tar -zxzf hadoop-1.2.1.tar.gz
sudo mv hadoop-1.2.1 /home/xxx0624/hadoop

保证所有操作都是在hadoop用户下完成

sudo chown -R hadoop:hadoop /home/xxx0624/hadoop

3. 设置hadoop和java环境变量

sudo gedit /home/xxx0624/hadoop/conf/hadoop-env.sh

在打开的文件中末尾添加:

export JAVA_HOME=/usr/lib/jvm   //(根据你本身的java安装路径而定的)
export HADOOP_HOME=/home/xxx0624/hadoop
export PATH=$PATH:/home/xxx0624/hadoop/bin

使环境变量生效(每次运行Hadoop命令都必须保证变量生效!)

source /home/xxx0624/hadoop/conf/hadoop-env.sh

4. 伪分布式模式配置

core-site.xml:  Hadoop Core的配置项,例如HDFS和MapReduce常用的I/O设置等。

hdfs-site.xml:  Hadoop 守护进程的配置项,包括namenode,辅助namenode和datanode等。

mapred-site.xml: MapReduce 守护进程的配置项,包括jobtracker和tasktracker。

4.1  首先新建这几个文件夹

mkdir tmp
mkdir hdfs
mkdir hdfs/name
mkdir hdfs/data
/*都是在hadoop文件夹下*/

4.2 开始编辑文件

 core-site.xml:

1     <configuration>
2     <property>
3     <name>fs.default.name</name>
4     <value>hdfs://localhost:9000</value>
5     </property>
6     <property>
7     <name>hadoop.tmp.dir</name>
8     <value>/home/xxx0624/hadoop/tmp</value>
9     </property>

hdfs-site.xml:

 1     <configuration>
 2     <property>
 3     <name>dfs.replication</name>
 4     <value>1</value>
 5     </property>
 6     <property>
 7     <name>dfs.name.dir</name>
 8     <value>/home/xxx0624/hadoop/hdfs/name</value>
 9     </property>
10     <property>
11     <name>dfs.data.dir</name>
12     <value>/home/xxx0624/hadoop/hdfs/data</value>
13     </property>
14     </configuration

mapred-site.xml:

1     <configuration>
2     <property>
3     <name>mapred.job.tracker</name>
4     <value>localhost:9001</value>
5     </property>
6     </configuration>

5. 格式化HDFS

hadoop namenode -format

如果出现这种错误:

ERROR namenode.NameNode: java.io.IOException: Cannot create directory /home/xxx0624/hadoop/hdfs/name/current

则:将hadoop的目录权限设为当前用户可写sudo chmod -R a+w /home/xxx0624/hadoop,授予hadoop目录的写权限

6. 启动Hadoop

cd /home/xxx0624/hadoop/bin
start-all.sh

正确结果如下:

Warning: $HADOOP_HOME is deprecated.
starting namenode, logging to /home/xxx0624/hadoop/logs/hadoop-xxx0624-namenode-xxx0624-ThinkPad-Edge.out
localhost: Warning: $HADOOP_HOME is deprecated.
localhost:
localhost: starting datanode, logging to /home/xxx0624/hadoop/logs/hadoop-xxx0624-datanode-xxx0624-ThinkPad-Edge.out
localhost: Warning: $HADOOP_HOME is deprecated.
localhost:
localhost: starting secondarynamenode, logging to /home/xxx0624/hadoop/logs/hadoop-xxx0624-secondarynamenode-xxx0624-ThinkPad-Edge.out
starting jobtracker, logging to /home/xxx0624/hadoop/logs/hadoop-xxx0624-jobtracker-xxx0624-ThinkPad-Edge.out
localhost: Warning: $HADOOP_HOME is deprecated.
localhost:
localhost: starting tasktracker, logging to /home/xxx0624/hadoop/logs/hadoop-xxx0624-tasktracker-xxx0624-ThinkPad-Edge.out

可以通过jps命令来验证是否成功:

如果5个守护进程都出现,则正常

7.查看运行状态

http://localhost:50030/    - Hadoop 管理介面
 http://localhost:50060/    - Hadoop Task Tracker 状态
 http://localhost:50070/    - Hadoop DFS 状态

8. 关闭Hadoop

stop-all.sh
时间: 2024-10-10 06:31:07

Ubuntu环境下手动配置Hadoop的相关文章

Ubuntu环境下手动配置HBase

配置HBase 前提: 配置Hadoop(http://www.cnblogs.com/xxx0624/p/4166095.html) 配置zoopkeeper(http://www.cnblogs.com/xxx0624/p/4168440.html) 1. 下载HBase 解压HBase tar -zxvf hbase-0.98.8-hadoop2-bin.tar.gz 然后移动到/home目录下,并重命名为hbase 2. 设置环境变量 #set hbase environment exp

Ubuntu环境下手动配置zookeeper

配置zookeeper 注意:因为是单机伪分布式配置,故同一机器上有3个server zookeeper文件格式如下 home---zookeeper---server0---zookeeper | ------------server1---zookeeper | ------------server2---zookeeper 1. 下载zookeeper(我用的是:zookeeper-3.4.6.tar.gz) 分别解压到/home/zookeeper/server0 /home/zooke

Ubuntu环境下手动配置ElasticSearch

1 下载elasticsearch-1.4.2 2 修改配置(可选) 修改内存:(可选) bin/elasticsearch.in.sh中: ES_MIN_MEM ES_MAX_MEM 修改搜索引擎页面信息:(可选) config/elasticsearch.yml中: cluster.name: elasticsearch1.0 node.name: "elasticsearch1.0_Node1" index.number_of_shards: 10 . . . 3 运行 进入:h

Ubuntu环境下手动配置Java环境

配置Java环境 1. 下载JDK(http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html)如:dk-8u25-linux-i586.tar.gz 注意:32位/64位系统,如果不符合,则在检验JDK是否安装成功的时候会报错(错误:无法执行二进制文件) 2. 解压该文件(sudo用于临时获取权限,此处可用可不用) sudo tar -zxvf 文件名 3. 将解压的文件夹移动到/usr

Ubuntu环境下手动配置tomcat

配置tomcat 前提条件:JDK已配置. (配置JDK:http://www.cnblogs.com/xxx0624/p/4164744.html) 1. 下载tomcat(http://tomcat.apache.org/download-70.cgi) 解压到某个目录(我解压到的是:/home) tar -zxvf apache-tomcat-7.0.57.tar.gz sudo mv apache-tomcat-7.0.57 /home //移动到home目录下 sudo mv apac

Linux环境下手动配置sbt

一.下载sbt安装包 从sbt官网下载地址:http://www.scala-sbt.org/download.html下载安装包,以sbt-0.13.13.tgz为例. 二.安装 1.将下载的二进制包移动到/usr/local目录,解压缩文件包 tar zxvf sbt-0.13.13.tgz mv sbt-launcher-packaging-0.13.13 sbt  //重命名目录 2.创建启动sbt的脚本文件 cd /usr/local/sbt/ vi sbt 在打开的sbt文本文件中添

Mac环境下安装配置Hadoop伪分布式

伪分布式需要修改5个配置文件(hadoop2.x的配置文件$HADOOP_HOME/etc/hadoop) 第一个:hadoop-env.sh #vim hadoop-env.sh #第25行,由于新的Mac系统不需要配置java环境变量,所以这里要写入具体路径 export JAVA_HOME=/Library/Java/JavaVirtualMachines/jdk1.8.0_111.jdk/Contents/Home 第二个:core-site.xml <!-- 制定HDFS的老大(Nam

ubuntu环境下eclipse的安装以及hadoop插件的配置

ubuntu环境下eclipse的安装以及hadoop插件的配置 一.eclipse的安装 在ubuntu桌面模式下,点击任务栏中的ubuntu软件中心,在搜索栏搜索eclipse 注意:安装过程需要输入用户密码. 二.eclipse的配置 待eclipse安装好以后,在命令行输入whereis eclipse 找到eclipse的安装路径 在文件目录下找到eclipse中的插件目录 然后在打开一个文件目录窗口找到hadoop/contrib/eclipse-plugin中的eclipse插件—

linux下手动配置lamp环境

前提:这是SercureCRT远程虚拟机中的ubuntu server完成的实验. 首先我们要知道lamp这个单词的构成:linux,apache,mysql,php.这篇文章就是要说明如何在linux下面完成apache,mysql,php的安装,并且让他们协同工作. 第一步:安装apache 采用ubuntu自带的软件安装方式:apt-get install apache2 安装完之后,/var/www/ 就是它的工作目录,/etc/apache2 就是它的安装路径. 进行测试 http:/