hbase单节点安装部署

本次配置延续上次的hadoop伪分布式安装部署

资源下载

http://mirrors.hust.edu.cn/apache/zookeeper/zookeeper-3.4.12/zookeeper-3.4.12.tar.gz

http://mirror.bit.edu.cn/apache/hbase/stable/hbase-1.2.6-bin.tar.gz

1、为hadoop管理用户配置suduers权限并做主机名解析

[[email protected] hadoop]# vi /etc/sudoers

添加

hadoop  ALL=(ALL)       NOPASSWD:       ALL

[[email protected] hadoop]# su hadoop

主机名解析

[[email protected] ~]$ sudo vi /etc/hosts

添加

192.168.120.131 master1

2、zookeeper环境配置

[[email protected] src]$ pwd

/home/hadoop/src

[[email protected] src]$ tar -xf zookeeper-3.4.12.tar -C /home/hadoop

[[email protected] src]$ cd ..

[[email protected] ~]$ mv zookeeper-3.4.12 zookeeper

修改环境变量

[[email protected] ~]$ vi ~/.bashrc

添加

export ZOOKEEPER_HOME=/home/hadoop/zookeeper

修改

export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin:$ZOOKEEPER_HOME/bin

使文件生效

[[email protected] ~]$ source ~/.bashrc

修改zookeeper配置文件

[[email protected] ~]$ cd zookeeper/conf

[[email protected] conf]$ cp zoo_sample.cfg zoo.cfg

修改

dataDir=/home/hadoop/zookeeper/data

添加

dataLogDir=/home/hadoop/zookeeper/datalog

[[email protected] conf]$ mkdir /home/hadoop/zookeeper/data

[[email protected] conf]$ mkdir /home/hadoop/zookeeper/datalog

启动ZK服务

[[email protected] conf]$ zkServer.sh start

ZooKeeper JMX enabled by default

Using config: /home/hadoop/zookeeper/bin/../conf/zoo.cfg

Starting zookeeper ... STARTED

3、Hbase环境配置

[[email protected] src]$ pwd

/home/hadoop/src

[[email protected] src]$ tar zxf hbase-1.2.6-bin.tar -C ../

[[email protected] ~]$ mv hbase-1.2.6 hbase

修改环境变量

[[email protected] ~]$ vi ~/.bashrc

添加

export HBASE_HOME=/home/hadoop/hbase

修改

export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin:$ZOOKEEPER_HOME/bin:$HBASE_HOME/bin

使文件生效

[[email protected] ~]$ source ~/.bashrc

拷贝hadoop配置文件到hbase

[[email protected] ~]$ cp hadoop/etc/hadoop/core-site.xml hbase/conf/

[[email protected] ~]$ cp hadoop/etc/hadoop/hdfs-site.xml hbase/conf/

编辑hbase配置文件

[[email protected] ~]$ cd hbase/conf

[[email protected] conf]$ vi hbase-env.sh

添加

export JAVA_HOME=/home/hadoop/dk

export HBASE_MANAGES_ZK=false

[[email protected] conf]$ vi hbase-site.xml

<configuration>

<property>

<name>hbase.rootdir</name>

<value>hdfs://master1:9000/hbase</value>

</property>

<property>

<name>hbase.cluster.distributed</name>

<value>false</value>

</property>

<property>

<name>hbase.zookeeper.quorum</name>

<value>master1:2181</value>

</property>

<property>

<name>hbase.master.info.port</name>

<value>60010</value>

</property>

</configuration>

说明:

hbase.master.info.port参数配置的是hbase的web界面,不配置的话默认是不开启的。

启动Hbase服务

[[email protected] conf]$ start-hbase.sh

starting master, logging to /home/hadoop/hbase/logs/hbase-hadoop-master-master1.out

Java HotSpot(TM) 64-Bit Server VM warning: ignoring option PermSize=128m; support was removed in 8.0

Java HotSpot(TM) 64-Bit Server VM warning: ignoring option MaxPermSize=128m; support was removed in 8.0

对于出现的警告信息做以下处理

[[email protected] conf]$ vi hbase-env.sh

注释

#export HBASE_MASTER_OPTS="$HBASE_MASTER_OPTS -XX:PermSize=128m -XX:MaxPermSize=128m"

#export HBASE_REGIONSERVER_OPTS="$HBASE_REGIONSERVER_OPTS -XX:PermSize=128m -XX:MaxPermSize=128m"

查看服务

[[email protected] conf]$ jps

1632 SecondaryNameNode

1793 ResourceManager

1362 NameNode

1491 DataNode

1913 NodeManager

5374 QuorumPeerMain

5966 HMaster

6255 Jps

可以通过http://192.168.120.131:60010打开hbase的web界面了。

原文地址:http://blog.51cto.com/xiaoxiaozhou/2129499

时间: 2024-08-20 00:56:39

hbase单节点安装部署的相关文章

如何将Rancher 2.1.x 从单节点安装迁移到高可用安装

Rancher提供了两种安装方法,即单节点安装和高可用安装.单节点安装可以让用户快速部署适用于短期开发或PoC的Rancher 2.x,而高可用部署则明显更适合Rancher的长期部署.  要点须知 针对开源用户,对于从单个节点迁移到HA的工作,Rancher Labs不提供官方技术支持. 以防在此过程中出现问题,您应该熟悉Rancher架构以及故障排除的方法. 前期准备 为了顺利将单个节点Rancher安装迁移到高可用性安装,您必须做如下准备: 您需要运行Rancher的2.1.x版本以及RK

Linux平台oracle 11g单实例 安装部署配置 快速参考

1.重建主机的Oracle用户 组 统一规范 uid gid 以保证共享存储挂接或其他需求的权限规范 userdel -r oracle groupadd -g 500 oinstall groupadd -g 501 dba useradd -g oinstall -G dba -u 500 oracle #id oracle uid=500(oracle) gid=500(oinstall) 组=500(oinstall),501(dba) 2.安装好Oracle 需要的rpm包.安装rpm

Flume 学习笔记之 Flume NG概述及单节点安装

Flume NG概述: Flume NG是一个分布式,高可用,可靠的系统,它能将不同的海量数据收集,移动并存储到一个数据存储系统中.轻量,配置简单,适用于各种日志收集,并支持 Failover和负载均衡.其中Agent包含Source,Channel和 Sink,三者组建了一个Agent.三者的职责如下所示: Source:用来消费(收集)数据源到Channel组件中 Channel:中转临时存储,保存所有Source组件信息 Sink:从Channel中读取,读取成功后会删除Channel中的

Hadoop介绍及最新稳定版Hadoop 2.4.1下载地址及单节点安装

 Hadoop介绍 Hadoop是一个能对大量数据进行分布式处理的软件框架.其基本的组成包括hdfs分布式文件系统和可以运行在hdfs文件系统上的MapReduce编程模型,以及基于hdfs和MapReduce而开发的一系列上层应用软件. hdfs是在一个网络中以流式数据访问模式来存储超大文件的跨越多台计算机的分布式文件系统.目前支持的超大文件的范围为从MB级至PB级. MapReduce是一种可用于数据处理的编程模型,基于MapReduce模型的程序本质上都是并行运行的.基于MapReduce

一、hadoop单节点安装测试

一.hadoop简介 相信你或多或少都听过hadoop这个名字,hadoop是一个开源的.分布式软件平台.它主要解决了分布式存储(hdfs)和分布式计算(mapReduce)两个大数据的痛点问题,在hadoop平台上你可以轻易地使用和扩展数千台的计算机而不用关心底层的实现问题.而现在的hadoop更是形成了一个生态体系,如图: 上图大体展示了hadoop的生态体系,但并不完整.总而言之,随着hadoop越来越成熟,也会有更多地成员加入hadoop生态体系中. hadoop官方网站:http://

vertica单节点安装

准备环境: 1.centos 7.0镜像 2.vertica-9.1.1-1.x86_64.RHEL6.rpm 安装过程: 1.安装CentOS 7.0 注意:挂载的文件系统必须是ext4,不能是默认的xfs! 2.关闭防火墙 [[email protected] ~]# systemctl disable firewalld [[email protected] ~]# systemctl stop firewalld 3.设置selinux为disable [[email protected

Redis02——Redis单节点安装

Redis单节点安装 一.Redis的数据类型 string hash list set zset 二.安装 2.1.下载 wget http://download.redis.io/releases/redis-5.0.5.tar.gz 2.2.解压 tar -xf redis-5.0.5.tar.gz 2.3.安装 make make install PREDIX=/opt/redis 2.4.修改环境变量 vim /etc/profile export REDIS_HOME:/opt/re

Reidis单节点安装配置

单节点配置安装安装redis 1. http://redis.io/  下载最新版本的软件包 2. 解压缩文件 tar -zxvf redis-3.2.5.tar.gz 3. 编译 cd redis-3.2.5 make make install 4. 修改配置 vim redis.conf 找到bind 127.0.0.1,修改为0.0.0.0,否则无法远程访问,保存退出,如果还是无法访问,关闭防火墙 即时关闭,重启后失效:service iptables stop 重启后生效:chkconf

openstack-mikata之网络服务(计算节点安装部署)

计算节点(10.0.0.31)前期的准备工作已经做好了接下来开始计算节点的部署安装 1.安装相关软件包 2.编辑/etc/neutron/neutron.conf 1)[DEFAULT]配置 "RabbitMQ" 消息队列的连接.配置认证服务访问 2)[oslo_messaging_rabbit]配置 "RabbitMQ" 消息队列的连接 3)[keystone_authtoken]配置认证服务访问 4)[oslo_concurrency]配置锁路径 3.配置网络(