hadoop+Spark+hbase集群动态增加节点

分布式系统的一个优势就是动态可伸缩性,如果增删节点需要重启那肯定是不行的。后来研究了一下,发现的确是不需要重启集群,直接在新增的节点上分别启动以下进程即可:以hadoop、spark和hbase为例:

一、hadoop增加datanode节点

因为1.x版本和2.x版本有比较大的差异,我这里是以2.7为例。
在namenode节点上,将hadoop-2.7复制到新节点上,并在新节点上删除data和logs目录中的文件。

1、增加hdfs数据节点datanode

在此节点上启动hdfs:

./sbin/hadoop-daemon.sh start datanode     # (后台模式)
或
./bin/hdfs datanode                        # (控制台模式)

2、下次自动启动,

修改集群里机器的所有$HADOOP_HOME/etc/hadoop/slaves配置文件,添加该节点。

3、刷新节点信息:

./bin/hdfs dfsdmin -refreshNodes

4、查看hdfs节点状态:即有多少个节点

./bin/hdfs dfsadmin –report

5、启动后可以均衡数据,使用命令

./sbin/start-balancer.sh

如果不balance,那么cluster会把新的数据都存放在新的node上,这样会降低工作效率:
查看hdfs节点状态:

hdfsdfsadmin –report
1048576(=1Mb/s)
104857600(=100Mb/s)
hdfsdfsadmin -setBalancerBandwidth 104857600

#设置不同节点之间复制数据的带宽是受限的,默认是1MB/s

start-balancer.sh -threshold 1

#设置如果某个datanode的磁盘里使用率比平均水平高出1%,Blocks向其他低于平均水平的datanode中传送, 也就是每个节点使用率相差不超过1%。
或者:

start-balancer.sh
stop-balancer.sh

6、卸载节点

卸载节点一般不建议直接停掉,需要先将其排除在集群之外,

编辑配置文件:$HADOOP_HOME/etc/hadoop/hdfs-core.xml

<property>
    <name>dfs.hosts</name>
    <value>.../etc/hadoop/datanode-allow.list</value>
</property>
<property>
    <name>dfs.hosts.exclude</name>
    <value>.../etc/hadoop/datanode-deny.list</value>
</property> 

在datanode-deny.list中 加入要卸载的节点名称

刷新节点信息:

./bin/hdfs dfsdmin -refreshNodes         # 会看到节点变成Dead和Decommissioned状态

最后再停止节点:

./sbin/hadoop-daemon.sh stop datanode

7、增加NodeManager任务节点

####启动:

./sbin/yarn-daemon.sh start nodemanager    # (后台模式)
或
./bin/yarn nodemanager                     # (控制台模式)

####停止:

./sbin/yarn-daemon.sh stop nodemanager

二、spark新增worker节点

1、增加一个节点就是在该节点执行:

./sbin/start-slave.sh spark://<master>:7077

就完成了新节点的注册和加入集群。

2、新增节点启动验证

执行jps命令,slave可以看到Worker进程

3、查看Spark UI

看到Workers中有新增节点

4、停止节点:

./sbin/stop-slave.sh

之后在master的管理端会显示这个节点已经“死掉”了。然而这条信息会一直显示到重启master为止。

5、希望下次自动启动这个新节点,

把这个节点名称加入到$SPARK_HOME/conf/slaves文件里。

三、hbase新增RegionServer

1、启动HRegionServer进程

hbase-daemon.shstart regionserver 

2、启动HquorumPeer进程

hbase-daemon.shstart zookeeper 

3、查看集群状态

hbase shell中输入status

4、负载均衡:

hbase shell中输入:balance_switch true

原文地址:http://blog.51cto.com/moerjinrong/2135012

时间: 2024-12-12 09:04:10

hadoop+Spark+hbase集群动态增加节点的相关文章

Hadoop概念学习系列之Hadoop集群动态增加新节点或删除已有某节点及复制策略导向

hadoop-2.6.0动态添加新节点 https://blog.csdn.net/baidu_25820069/article/details/52225216 Hadoop集群动态增加新节点 一.在新增节点配置运行环境 1.安装和其他节点相同的java环境,jdk版本要相同. 2.修改/etc/hosts配置文件,添加ip与hostname的对应关系并分发到集群各个节点. 3.关闭防火墙.相关软件工具的安装等. 4.配置ssh免密码登录,使新增节点和集群其他节点能实现免密码登录. 5.修改s

hadoop及hbase集群启停的几种方式

1.生产环境集群 2.web管理页面 hadoop web管理页面(主备) http://192.168.10.101:50070 http://192.168.10.102:50070 hbase web管理页面(主备) http://192.168.10.101:16010 http://192.168.10.102:16010 3.启动和停止服务 3.1.启动顺序 Hadoop及hbase集群启动顺序 zookeepeer->hadoop->hbase Hadoop及hbase集群关闭顺

hadoop及hbase集群增加节点

老的集群服务器: 192.168.11.131 master1 192.168.11.132 master2 192.168.11.133 slave1 192.168.11.134 slave2 192.168.11.135 slave3 新加入的节点: 192.168.11.136 slave4 192.168.11.137 slave5 一.hadoop扩容 1.配置各节点hosts文件,加入新加入的两个节点的IP和主机名 新添加的节点添加下面内容 192.168.11.131 maste

Hadoop集群动态扩容、缩容

一. Hadoop集群动态扩容.缩容 随着公司业务的增长,数据量越来越大,原有的datanode节点的容量已经不能满足存储数据的需求,需要在原有集群基础上动态添加新的数据节点.也就是俗称的动态扩容. 有时候旧的服务器需要进行退役更换,暂停服务,可能就需要在当下的集群中停止某些机器上hadoop的服务,俗称动态缩容. 1. 动态扩容 1.1. 基础准备 在基础准备部分,主要是设置hadoop运行的系统环境 修改新机器系统hostname(通过/etc/sysconfig/network进行修改)

大数据实操3 - hadoop集群添加新节点

hadoop集群支持动态扩展,不需要停止原有集群节点就可以实现新节点的加入. 我是使用docker搭建的进群环境,制作了镜像文件,这里以我的工作基础为例子介绍集群中添加集群的方法 一.制作一个新节点 1.为新节点搭建hadoop环境 如果是一般情况下,将一个新物理机添加到集群中,参照集群中其他节点,在新机器上安装与集群中其他节点相同版本的jdk.hadoop等必要程序,安装路径最好一致,这样比较容易管理.这里我使用docker搭建的环境,所以只需要启动一个容器即可. 2.修改新节点主机名映射 v

redis5集群扩容-增加主从节点

回顾上节redis cluster集群入门已经搭建完成的集群节点 b3363a81c3c59d57143cd3323481259c044e66d2 192.168.8.196:[email protected] slave 1b7aa419065c5477c0def9d5e25106963fbdda76 0 1572917132045 6 connected 9dc870942555447543694e42e40061823ed91271 192.168.8.196:[email protect

HBase集群搭建及hbaseshell使用

标签(空格分隔): hbase 大数据 (Hadoop)数据库 HBase功能 .表的设计 .环境配置与 Shell基本使用练习,最好与 RDBMS数据中的库和表进行对比 ,以下几点要注意 : 1) 企业中海量数据存储和实时查询的需求 2) HBase功能 ,与 RDBMS相比,优势在哪 3) HBase服务组件的说明.配置部署启动 4) HBase Shell中基本命令的使用 5) HBase 数据存储模型理解,结合实际操作 hadoop,spark,kafka交流群:459898801 1,

基于外部ZooKeeper的GlusterFS作为分布式文件系统的完全分布式HBase集群安装指南

(WJW)基于外部ZooKeeper的GlusterFS作为分布式文件系统的完全分布式HBase集群安装指南 [X] 前提条件 服务器列表: 192.168.1.84 hbase84 #hbase-master 192.168.1.85 hbase85 #hbase-regionserver,zookeeper 192.168.1.86 hbase86 #hbase-regionserver,zookeeper 192.168.1.87 hbase87 #hbase-regionserver,z

HBase集群环境搭建

本文档环境基于ubuntu14.04版本,如果最终不使用SuperMap iServer 9D ,可以不配置geomesa-hbase_2.11-2.0.1-bin.tar.gz (转发请注明出处:http://www.cnblogs.com/zhangyongli2011/ 如发现有错,请留言,谢谢) 一.准备 1.1 软件版本 hadoop-2.6.5 zookeeper-3.4.10.tar.gz hbase-1.3.1-bin.tar.gz geomesa-hbase_2.11-2.0.