Hadoop2.4.0-Hbase-098.9-完全分布式安装部署

1准备环境

1.1所需软件包

a、CentOS-6.5-i386-LiveDVD.iso 32位centos系统

b、jdk-7u71-linux-i586.rpm 32位jdk-Linux rpm文件

c、hadoop-2.2.0.tar.gz  hadoop安装包

d、zookeeper-3.4.6.tar.gz  zookeeper安装包

1.2运行环境

a、VMware9.0及以上版本虚拟机工具

b、创建三个虚拟机节点

c、网卡模式设置为桥接模式

1.3节点信息

Hadoop1 192.168.120.191    namenode,resourcemanagerHMaster, HRegionServer

Hadoop2 192.168.120.192    namenode,resourcemanagerHRegionServer

Hadoop3 192.168.120.193    datanode,nodemanagerHRegionServer

2具体配置

2.1系统配置

安装三个Centos6.5 32位系统作为三个节点

2.1.1配置网络

#vim /etc/sysconfig/network-scripts/ifcfg-eth0

DEVICE="eth0"

BOOTPROTO="static"

IPV6INIT="yes"

NM_CONTROLLED="yes"

ONBOOT="yes"

TYPE="Ethernet"

IPADDR=192.168.120.191

NETMASK=255.255.255.0

GATEWAY=192.168.120.1

DNS1=210.31.249.20

2.1.2修改hostname和hosts文件

#vim /etc/sysconfig/network

NETWORKING=yes

HOSTNAME=hadoop1

#vim /etc/hosts

192.168.120.191hadoop1

192.168.120.192hadoop2

192.168.120.193hadoop3

2.1.3关闭iptables和selinux

#serviceiptables stop

#chkconfigiptables off

#vim/etc/selinux/config

...

SELINUX=disabled

...

将另外两台虚机做上述同样的操作,只需将相应的IP地址和hostname做相应的修改即可,然后将三个节点都重启,执行命令 #init 0 或 #reboot

2.1.4 SSH无密钥登录

三个节点都执行

#ssh-keygen -t dsa -P ‘’ -f ~/.ssh/id_dsa

#cp /root/.ssh/id_dsa.pub/root/.ssh/authorized_keys

分别将三个节点/root/.ssh/id_dsa.pub中的内容都拷贝到各个节点的authorized_keys文件中

以上是hadoop1的authorized_keys中的内容,hadoop2和hadoop3节点也须保持一致,保存退出后,检验是否生效:

Hadoop1节点:

#ssh hadoop2             //第一次登陆会有提示,输入yes

#ssh hadoop3

Hadoop2节点:

Hadoop3节点:

2.1.5 JDK的安装

到http://www.oracle.com/technetwork/java/javase/downloads/index.html链接中下载jdk-7u71-linux-i586.rpm文件,将下载的文件拷贝到三个节点的/root目录下,安装rpm文件执行命令:

#rpm -ivhjdk-7u71-linux-i586.rpm     //默认安装路径(/usr/java),其中latest是软链接文件

2.1.6 更新源

到http://mirrors.163.com/.help/centos.html链接中下载Centos6的repo源文件CentOS6-Base-163.repo,将其拷贝到/root目录下(三个节点均执行)

#rm -rf /etc/yum.repos.d/*

#cp /root/CentOS6-Base-163.repo/etc/yum.repos.d/

#yum makecache

2.2HBase集群部署

2.2.1 hadoop版本对HBase支持情况

S = 支持并且测试,

X = 不支持,

NT = 应该可以,但是没有测试.

本环境hadoop版本为2.4.0采用的Hbase版本为0.98.9

2.2.2下载HBase

地址为:http://mirror.bit.edu.cn/apache/hbase/stable/

2.2.3安装Hbase

将hbase-0.98.9-hadoop2-bin.tar.gz安装包拷贝到/opt/hbase目录下,安装hbase

#tar -zxvf hbase-0.98.9-hadoop2-bin.tar.gz

mv hbase-0.98.9-hadoop2-bin hbase

修改环境变量

#vim /etc/profile

export HBASE_HOME=/opt/hbase/hbase

#source /etc/profile

2.2.4 配置hbase-site.xml

将/root/ /hadoop/etc/hadoop下hdfs-site.xml拷贝到/opt/hbase/hbase/conf

cp /root/ hadoop/etc/hadoop/hdfs-site.xml /opt/hbase/hbase/conf/

修改/ opt/hbase/hbase/conf/下hbase-site.xml

vi hbase-site.xml

<configuration>

<property>

<name>hbase.rootdir</name>

<value>mycluster</value>

</property>

<property>

<name>hbase.cluster.distributed</name>

<value>true</value>

</property>

<property>

<name>hbase.master</name>

<value>hadoop1:60000</value>

</property>

<property>

<name>hbase.zookeeper.quorum</name>

<value>hadoop1,hadoop2,hadoop3</value>

</property>

</configuration>

注:这里的hbase.rootdir与/root/ hadoop/etc/hadoop/hdfs-site.xml下hdfs-site.xml的

dfs.nameservices保持一致

hbase.rootdir指定Hbase数据存储目录

hbase.cluster.distributed 指定是否是完全分布式模式,单机模式和伪分布式模式需要将该值设为false

hbase.master指定Master的位置

hbase.zookeeper.quorum指定zk的集群,多台机器以逗号分隔

2.2.5配置hbase-env.sh

vi hbase-env.sh

#JDK的安装目录

export JAVA_HOME=/usr/java/latest

#hadoop的配置目录

export HBASE_CLASSPATH=/root/hadoop/etc/hadoop

#true:表示zookeeper交给hbase管理,启动hbase时,会自动启动hbase-site.xml里的hbase.zookeeper.quorum属性中的所有zookeeper实例 #false:表示启动hbase时,要手动启动所有zookeeper实例

export HBASE_MANAGES_ZK=true

2.2.6配置regionservers

vi regionservers

hadoop1

hadoop2

hadoop3

2.2.7替换lib下jar

.为避免hadoop和hbase之间版本冲突;替换hbase安装目录下的lib中使用的hadoop2.2的jar包替换成2.4.0的。

为了简便在这里可以写一个脚本copyJar.sh(位于/opt/hbase/hbase/lib下):

#! /bin/bash

find -name"hadoop*jar" | sed ‘s/2.2.0/2.4.0/g‘ | sed ‘s/.\///g‘ > f.log

rm ./hadoop*jar

cat ./f.log |while read Line

do

find /root/hadoop/share/hadoop -name"$Line" | xargs -i cp {} ./

done

rm ./f.log

进入/opt/hbase/hbase/lib下执行copyJar.sh即可把lib中使用的hadoop2.2的jar包,替换成2.4.0的

#cd /opt/hbase/hbase/lib

#./copyJar.sh

2.2.8同步数据

Hadoop1节点中执行:

复制hadoop1节点环境变量到hadoop2节点

#scp /etc/profile hadoop2:/etc/

复制hadoop1节点环境变量到hadoop3节点

# scp /etc/profile hadoop3:/etc/

将HBase同步到其他节点:

#scp –r /opt/hbase/hbase hadoop2:/ opt/hbase/

#scp –r /opt/hbase/hbase hadoop3:/ opt/hbase/

Hadoop2节点执行:

#source /etc/profile

Hadoop3节点:

#source /etc/profile

2.2.9启动集群

启动HBase集群命令:start-hbase.sh

关闭HBase集群命令:stop-hbase.sh

分别在三个节点上执行jps命令,在hadoop1上启动的有:HMaster, HRegionServer;在hadoop2上启动的有HRegionServer;在hadoop3上启动的有HRegionServer。

至此HBase完全分布式安装完毕!

3测试HBase

3.1启动集群

start-hbase.sh

3.2进入hbase shell

bin/hbase shell

3.3创建HBase表

create ‘test‘, ‘cf‘   //表名为test,只有一个列族cf

3.4插入数据

put ‘test‘,‘row1‘, ‘cf:a‘, ‘value1‘

put ‘test‘,‘row2‘, ‘cf:b‘, ‘value2‘

put ‘test‘,‘row3‘, ‘cf:c‘, ‘value3‘

3.5扫描表

scan ‘test‘

3.6获取数据

get ‘test‘, ‘row1‘

3.7Drop表

disable ‘test‘

drop ‘test‘

3.8退出

exit

时间: 2024-11-19 07:36:14

Hadoop2.4.0-Hbase-098.9-完全分布式安装部署的相关文章

Hadoop2.7.3+Hbase-1.2.6完全分布式安装部署

因为学习,在网上找了很多hbase搭建的文章,感觉这篇很好,点此 搭建好后,jps查看了后台进程,发现在slave上面没有HRegionServer进程 便查看了 slave上关于HRegionServer的日志,发现报错 如下 然后网上查了一下,说是时间不同步的问题,自己使用date命令查看了一下系统时间,确实时间不一样 所以又搜索了几篇关于linux时间同步的博客 linux时间同步     这篇文章不错  我用的是time.nuri.net这个时间服务器, 之后再启动就好了,安装很简单 原

Hbase-0.96.2完全分布式安装部署

Hbase-0.96.2完全分布式安装部署 环境: Hadoop-2.2.0 Zookeeper-3.4.6 hbase-0.96.2 1.下载hbase-0.96.2-hadoop2-bin.tar.gz 下载地址:http://apache.dataguru.cn/hbase/hbase-0.96.2/ 2.解压:$tar –zxvf hbase-0.96.2-hadoop2-bin.tar.gz 3.同步集群时间 切换root用户:$su root; 查看时间:$date 同步时间: $n

一、Hadoop 2.x 分布式安装部署

一.Hadoop 2.x 分布式安装部署 1.分布式部署hadoop 2.x 1.1克隆虚拟机并完成相关配置 1.1.1克隆虚拟机 点击原有虚拟机–>管理–>克隆–>下一步–>创建完成克隆–>写入名称hadoop-senior02–>选择目录 1.1.2配置修改 1)启动克隆虚拟机(内存配置:01:2G;02:1.5G;03:1.5G) 2)修改主机名:改两处 3)修改网卡名称 编辑 /etc/udev/rules.d/70-persistent-net.rules -

Ubuntu14.04下hadoop-2.6.0单机配置和伪分布式配置

在Ubuntu下创建hadoop用户组和用户 hadoop的管理员最好就是以后要登录桌面环境运行eclipse的用户,否则后面会有拒绝读写的问题出现.当然不是也有办法办法解决. 1. 创建hadoop用户组; [html] view plaincopy sudo addgroup hadoop 2. 创建hadoop用户; [html] view plaincopy sudo adduser -ingroup hadoop hadoop 3. 给hadoop用户添加权限,打开/etc/sudoe

Hbase分布式安装部署过程

系统 Red hat linux 6.4 Hadoop版本 1.2.1 Hbase版本 0.94.16 Hbase的完全分布式安装概述: 1. 配置hosts,确保涉及的主机名均可解析为ip 2. 编辑hbase-env.xml 3. 编辑hbase-site.xml 4. 编辑regionservers文件,文件默认内容是localhost /home/grid/hbase/conf/regionservers,将所有的slavenode添加到这个文件 5. Hbase复制到其他节点 6. 启

hbase 1.2.1 分布式安装

1.机器信息 五台centos 64位机器 2.集群规划 Server Name Hadoop Cluster Zookeeper   Ensemble HBase Cluster Ip   Hadoop01 Name node   & Resource manager   Master 192.168.12.60 Hadoop02 Secondary name   node   192.168.12.61 Hadoop03 Data node   & Node manager √ Reg

HBase基础和伪分布式安装配置

一.HBase(NoSQL)的数据模型 1.1 表(table),是存储管理数据的. 1.2 行键(row key),类似于MySQL中的主键,行键是HBase表天然自带的,创建表时不需要指定 1.3 列族(column family),列的集合. 一张表中有多个行健,一个行健读取出来的是一条记录,列族和MySQL中的列差不多,但是它是列的集合 HBase中列族是需要在定义表时指定的,列是在插入记录时动态增加的. HBase表中的数据存储在本地磁盘上的时候,每个列族单独一个作为文件存储. 上图表

史上最完整Hadoop2.x完全分布式安装部署-小白也能学会

一.环境要求: 1.        虚拟机安装并设置网络: 2.        修改主机地址映射: 3.        必备软件:Jdk.Development Tools   Development Libraries gcc c++等已安装: 4.        修改windows主机C:\Windows\System32\drivers\etc\hosts 在hosts文件中添加虚拟机中的主机地址映射如下: Ip地址             Linux主机名 5.         配置四台

Hadoop2.2.0环境下Sqoop1.99.3安装

本文转载自http://blog.csdn.net/liuwenbo0920/article/details/40504045 1.安装准备工作: 已经装好的hadoop环境是hadoop 2.2.0下载的sqoop安装包(注意是hadoop200) 下载sqoop  wget  http://mirrors.cnnic.cn/apache/sqoop/1.99.6/sqoop-1.99.3-bin-hadoop200.tar.gz 2.解压文件到工作目录: 将sqoop解压到目标目录,我的是