[Nutch]Hadoop动态增加DataNode节点和TaskTracker节点

之前的博文有对分布式模式做负载均衡设置,那么这次我们就来说明一下如果动态增加DataNode结点和TaskTracker结点。

1. 在host1上增加host4

使用如下命令:

vi  conf/slaves

如下:

2. 将host1上的公钥加入到host4中

使用如下命令:

ssh-copy-id  -i  .ssh/id_rsa.pub  [email protected]

如下:

将host1的公钥添加到host4中,可以免密码登录。如下:

3. 将hadoop拷贝到host4上

使用如下命令:

scp -r /home/hadoop/workspace/hadoop-1.2.1  hadoop@host4:/home/hadoop/workspace/hadoop-1.2.1

如下:

4. 在host3上增加host4

使用如下命令:

vim conf/slaves

如下:

5. 将host3的公钥加入到host4

使用如下命令:

ssh-copy-id  -i  .ssh/id_rsa.pub  [email protected]

如下:

免密码登录:

6. 在host4上启动DataNode和TaskTracker

启动DataNode:

workspace/hadoop-1.2.1/bin/hadoop-daemon.sh start datanode

如下:

启动TaskTracker:

workspace/hadoop-1.2.1/bin/hadoop-daemon.sh start tasktracker

如下:

可以看到DataNode和TaskTracker已经启动:

7. web管理界面

可以看到DataNode从之前的3个变为了4个:

再来看看JobTracker,也从之前的3个变为了4个:

时间: 2024-10-17 16:42:13

[Nutch]Hadoop动态增加DataNode节点和TaskTracker节点的相关文章

[Nutch]Hadoop动态删除DataNode节点和TaskTracker节点

在之前的博文有说明动态添加一个结点,本次就说明如何动态删除一个结点. 在上一篇博文有讲解如何限制一个结点的连接,要动态删除一个结点,可以在这个基础之上进行配置. 1. 在host1上配置dfs.hosts.exclude 在dfs.hosts.exclude指定的文件中添加host4: 再执行如下命令: hadoop dfsadmin -refreshNodes 然后用如下命令进行查看: hadoop dfsadmin -report 如下: 2. web界面 从web管理界面可以看到,目前只有

hadoop动态添加datanode启动失败的经验

动态添加datanode节点,主机名node14.cnshell>hadoop-daemon.sh start datanodeshell>jps #查看datanode进程是否已启动发现DataNode进程启动后立即消失,查询日志发现一下记录: 2018-04-15 00:08:43,158 INFO org.apache.hadoop.hdfs.server.namenode.NameNode: registered UNIX signal handlers for [TERM, HUP,

Hadoop 2.7.3 完全分布式维护-动态增加datanode篇

原有环境 http://www.cnblogs.com/ilifeilong/p/7406944.html  IP       host JDK linux hadop role 172.16.101.55 sht-sgmhadoopnn-01 1.8.0_111 CentOS release 6.5 hadoop-2.7.3 NameNode,SecondaryNameNode,ResourceManager 172.16.101.58 sht-sgmhadoopdn-01 1.8.0_111

Hadoop 2.6.3动态增加/删除DataNode节点

假设集群操作系统均为:CentOS 6.7 x64 Hadoop版本为:2.6.3 一.动态增加DataNode 1.准备新的DataNode节点机器,配置SSH互信,可以直接复制已有DataNode中.ssh目录中的authorized_keys和id_rsa 2.复制Hadoop运行目录.hdfs目录及tmp目录至新的DataNode 3.在新DataNode上启动hadoop ..sbin/hadoop-daemon.sh start datanode ..sbin/yarn-daemon

hdfs以及hbase动态增加和删除节点

一个知乎上的问题:Hbase的Region server和hadoop的datanode是否可以部署在一台服务器上?如果是的话,二者是否是一对一的关系?部署在同一台服务器上,可以减少数据跨网络传输的流量. 但不是一对一对的关系,首先,数据还hdfs中保存N份,默认是三分,也就是说数据会分布在三个datanode上,即使regionserver上只保存一个region,它也可以与三个datanode交互,更何况,一台regionserver可以保存多个region. 参考:https://www.

Hadoop动态添加/删除节点(datanode和tacktracker)

总的来说,正确的做法是优先通过配置文件,再在具体机器上进行相应进程的启动/停止操作. 网上一些资料说在调整配置文件的时候,优先使用主机名而不是IP进行配置. 总的来说添加/删除DataNode和TaskTracker的方法非常相似,只是操作的配置项和使用的命令有微小差异. 1. DataNode 1.0 配置文件 在master/namenode下修改配置文件conf/mapred-site.xml. 关键参数dfs.hosts和dfs.hosts.exclude. 注意:不同hadoop版本的

Hadoop概念学习系列之Hadoop集群动态增加新节点或删除已有某节点及复制策略导向

hadoop-2.6.0动态添加新节点 https://blog.csdn.net/baidu_25820069/article/details/52225216 Hadoop集群动态增加新节点 一.在新增节点配置运行环境 1.安装和其他节点相同的java环境,jdk版本要相同. 2.修改/etc/hosts配置文件,添加ip与hostname的对应关系并分发到集群各个节点. 3.关闭防火墙.相关软件工具的安装等. 4.配置ssh免密码登录,使新增节点和集群其他节点能实现免密码登录. 5.修改s

hadoop+Spark+hbase集群动态增加节点

分布式系统的一个优势就是动态可伸缩性,如果增删节点需要重启那肯定是不行的.后来研究了一下,发现的确是不需要重启集群,直接在新增的节点上分别启动以下进程即可:以hadoop.spark和hbase为例: 一.hadoop增加datanode节点 因为1.x版本和2.x版本有比较大的差异,我这里是以2.7为例.在namenode节点上,将hadoop-2.7复制到新节点上,并在新节点上删除data和logs目录中的文件. 1.增加hdfs数据节点datanode 在此节点上启动hdfs: ./sbi

spark、hadoop动态增减节点

之前在搭建实验环境的时候按部就班的配置好,然后就启动了.后来再一琢磨,有点不对劲.分布式系统的一个优势就是动态可伸缩性,如果增删节点需要重启那肯定是不行的.后来研究了一下,发现的确是不需要重启的.仍以Spark和Hadoop为例: 对于spark来说很简单,增加一个节点就是命令启动: ./sbin/start-slave.sh spark://<master>:7077 ,就完成了新节点的注册和加入集群.停止的时候是: ./sbin/stop-slave.sh.之后在master的管理端会显示