大数据(hdfs集群及其集群的高级管理)

####

大数据课程第二天


伪分布式hadoop的启动停止脚本[使用]
sbin/hadoop-daemon.sh start namenode
sbin/hadoop-daemon.sh start datanode
sbin/yarn-daemon.sh start resourcemanager
sbin/yarn-daemon.sh start nodemanager
?
shell脚本
xxx.sh
   ls
   mkdir 

hadoop-start.sh
    sbin/hadoop-daemon.sh start namenode
    sbin/hadoop-daemon.sh start datanode
    sbin/yarn-daemon.sh start resourcemanager
    sbin/yarn-daemon.sh start nodemanager
?
chmod 744 hadoop-start.sh
?1. 相对路径     ./hadoop-start.sh2. 绝对路径   /opt/install/hadoop-2.5.2/hadoop-stop.sh
HDFS的集群
  1. HDFS配置集群的原理分析

  2. ssh免密登陆
    1. 通过工具生成公私钥对

      ssh-keygen -t rsa

    2. 公钥发送远程主机
      ssh-copy-id 用户@ip

  3. 修改slave文件
    vi /opt/install/hadoop2.5.2/etc/hadoop/slaves?slavesip
  4. HDFS的集群搭建
    1. ssh免密登陆

      ssh-keygen -t rsassh-copy-id 用户@ip
    2. 清除mac地址的影响
      rm -rf /etc/udev/rule.d/70-persistence.net.rules
    3. 设置网络
      1. ip地址设置 主机名 映射 关闭防火墙 关闭selinux
    4. 安装hadoop,jdk
      1. 安装jdk
      2. hadoop解压缩
      3. 配置文件
         hadoop-env.sh
         core-site.xml
         hdfs-site.xml
         yarn-site.xml
         mapred-site.xml
         slaves 一致
      4. 格式化 NameNode所在的节点 格式化 [清空原有 data/tmp 内容]
         bin/hdfs namenode -format
      5. 启动相关服务
         sbin/start-dfs.sh
         出现如下则成功:(从节点连接不成功可以先手动ssh连一下,确保可以无密码无验证才可进行以下)
         [[email protected] hadoop-2.5.2]# sbin/start-dfs.sh
      19/01/23 04:09:42 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
      Starting namenodes on [hadoop]
      hadoop: starting namenode, logging to /opt/install/hadoop-2.5.2/logs/hadoop-root-namenode-hadoop.out
      hadoop2: starting datanode, logging to /opt/install/hadoop-2.5.2/logs/hadoop-root-datanode-hadoop2.out
      hadoop: starting datanode, logging to /opt/install/hadoop-2.5.2/logs/hadoop-root-datanode-hadoop.out
      hadoop1: starting datanode, logging to /opt/install/hadoop-2.5.2/logs/hadoop-root-datanode-hadoop1.out
      Starting secondary namenodes [0.0.0.0]
      0.0.0.0: starting secondarynamenode, logging to /opt/install/hadoop-2.5.2/logs/hadoop-root-secondarynamenode-hadoop.out
      19/01/23 04:10:29 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
      6.运行jps
      [[email protected] hadoop-2.5.2]# jps
      3034 DataNode
      3178 SecondaryNameNode
      3311 Jps
      2946 NameNode
      2824 GetConf
      7.在从节点运行jps,出现如下则正常
      [[email protected] etc]# jps
      1782 Jps
      1715 DataNode
      访问hadoop:50070查看datanode:

HDFS高级管理内容
  • NameNode持久化[了解]

    1. 什么是NameNode的持久化

    2. FSImage和EditsLog文件默认存储的位置
      #默认存储位置: /opt/install/hadoop-2.5.2/data/tmp/dfs/namehadoop.tmp.dir=/opt/install/hadoop-2.5.2/data/tmpdfs.namenode.name.dir=file://${hadoop.tmp.dir}/dfs/namedfs.namenode.edits.dir  = ${dfs.namenode.name.dir} 
    3. 自定义FSImage和EditsLog的存储位置?
      hdfs-site.xml<property>    <name>dfs.namenode.name.dir</name>    <value>/xxx/xxx</value></property>?<property>    <name>dfs.namenode.edits.dir</name>    <value>/xxx/xxx<</value></property>
    4. 安全模式 safemode
      每一次从新启动NameNode时,都会进行EditsLog与FSImage的汇总,为了避免这个过程中,用户写操作会对系统造成影响,HDFS设置了安全模式(safemode),在安全模式中,不允许用户做写操作.完成合并后,安全模式会自动退出手工干预安全模式bin/hdfs dfsadmin -safemode enter|leave|get
  • SecondaryNameNode
    1. 定期合并FSImage和EditsLog

    2. 可以在NameNode进程宕机,FSImage和EditsLog硬盘损坏的情况下,部分还原NameNode数据
SecondaryNameNode获取的FSImage和EditsLog 存储位置  /opt/install/hadoop2.5.2/data/tmp/dfs/namesecondary

#secondarynamenode还原namenode数据的方式
#rm -rf /opt/install/hadoop2.5.2/data/tmp/dfs/namesecondary/in_use.lock
1. 指定namenode持久化中FSImage 和 EditsLog的新位置
hdfs-site.xml
<property>
   <name>dfs.namenode.name.dir</name>
   <value>file:///opt/install/nn/fs</value>
</property>
<property>
   <name>dfs.namenode.edits.dir</name>
   <value>file:///opt/install/nn/edits</value>
</property>
2.  kill namenode
目的为了演示 namenode 当机
日志查看/logs/hadoop-root-namenode-hadoop.log tail -100 查看最新的100行
3. 通过SecondaryNameNode恢复NameNode
sbin/hadoop-daemon.sh start namenode -importCheckpoint
如果namenode没启动,查看查看hadoop2.5/data/tmp/dfs/namesecondary目录是否被锁,如果锁掉则删掉该目录下的in_use.lock

原文地址:https://www.cnblogs.com/lhc-hhh/p/10324262.html

时间: 2024-10-07 11:50:13

大数据(hdfs集群及其集群的高级管理)的相关文章

大数据入门至精通视频集

大数据入门至精通视频集,包含Scala.Hadoop.Spark.docker等 王家林免费视频百度云地址: 1 <大数据不眠夜:Spark内核天机解密(共140讲)>: 51CTO在线观看(支持手机.平板.PC): http://edu.51cto.com/course/course_id-4703.html 百度云下载: http://pan.baidu.com/s/1eQsHZAq 2 <Hadoop深入浅出实战经典>http://pan.baidu.com/s/1mgpfR

大数据平台Hadoop的分布式集群环境搭建

1 概述 本文章介绍大数据平台Hadoop的分布式环境搭建.以下为Hadoop节点的部署图,将NameNode部署在master1,SecondaryNameNode部署在master2,slave1.slave2.slave3中分别部署一个DataNode节点 NN=NameNode(名称节点) SND=SecondaryNameNode(NameNode的辅助节点) DN=DataNode(数据节点)2 前期准备 (1)准备五台服务器 如:master1.master2.slave1.sla

大数据-Hadoop生态(4)-Hadoop集群搭建

准备工作 开启全部三台虚拟机,确保hadoop100的机器已经配置完成 脚本 操作hadoop100 新建一个xsync的脚本文件,将下面的脚本复制进去 vim xsync #这个脚本使用的是rsync命令而不是scp命令,是同步而非覆盖文件,所以仅仅会同步过去修改的文件.但是rsync并不是一个原生的Linux命令,需要手动安装.如果没有,请自行安装 #!/bin/bash #1 获取输入参数个数,如果没有参数,直接退出 pcount=$# if ((pcount==0)); then ech

2019年优选大数据计算平台搭建方案之BR-odp数据安全、管理模块,数道云大数据

[前言]大数据计算平台,使用了Hadoop.Spark.Storm.Flink等这些分布式的实时或者离线计算框架,建立计算集群,并在上面运行各种计算任务. 21世纪的现在,大数据这个名词对我们来说并不陌生,大数据受到了不同行业,不同领域的各界人士的关注,就在今年已经过去的两会中,大数据的发展及使用也成为两会的热门话题. 大数据行业火热的发展,大数据技术将海量数据的价值化来赋予传统行业不一样的发展前景,大数据不仅助力企业的发展,同时也在政府等关于民意收集等等多个领域得到广泛应用,因此,大数据技术在

大数据项目如何更好应用用例规范管理测试用例

大数据项目如何更好的管理测试用例,其重要性不言而喻:其中最有效的一个方法就是强而有力的执行用例的编写规范:以下是经验总结的用例编写规范.用例编写规范分为两部分:第一部分:功能测试用例编写规范(一)测试用例编写规范:1.需求(算法)文档路径:2.ER-Win.数据字典: 测试目的: 前置条件: 操作步骤:1.2. 预期结果: (二)SQL用例编写规范:1)每个表必须要使用有意义的别名:2)当使用表连接时,要关联的从表字段必须要放在左边,主表字段放在右边: --要求,比例: 正确的示范: selec

大数据-HDFS 集群搭建的配置文件

1.HDFS简单版集群搭建相关配置文件 1.core-site.xml文件 1 <property> 2 <name>fs.defaultFS</name> 3 <value>hdfs://hadoop2:9000</value> 4 </property> 5 6 <property> 7 <name>hadoop.tmp.dir</name> 8 <value>/usr/hadoop

大数据系列之Hadoop分布式集群部署

本节目的:搭建Hadoop分布式集群环境 环境准备 LZ用OS X系统 ,安装两台Linux虚拟机,Linux系统用的是CentOS6.5:Master Ip:10.211.55.3 ,Slave Ip:10.211.55.4 各虚拟机环境配置好Jdk1.8(1.7+即可) 资料准备 hadoop-2.7.3.tar.gz 虚拟机配置步骤 以下操作都在两台虚拟机 root用户下操作,切换至root用户命令 配置Master hostname 为Master ; vi /etc/sysconfi

大数据【三】YARN集群部署

一 概述 YARN是一个资源管理.任务调度的框架,采用master/slave架构,主要包含三大模块:ResourceManager(RM).NodeManager(NM).ApplicationMaster(AM). >ResourceManager负责所有资源的监控.分配和管理,运行在主节点: >NodeManager负责每一个节点的维护,运行在从节点: >ApplicationMaster负责每一个具体应用程序的调度和协调,只有在有任务正在执行时存在. 对于所有的applicati

不得不收藏的大数据Hadoop教程:Hadoop集群搭建

搭建环境安装时间同步Yum install -y ntpdate 网络时间同步命了 服务器地址是阿里云ntpdate ntp1.aliyun.com 手动时间同步方式date -s "20190622 12:32:00"  #yyyymmdd hh:mm:ss完全分布式服务器namenodesecondaryNameNodedatanode    Hadoop01有      Hadoop02 有有    Hadoop03  有Hadoop04  有Ps:这里我们已经将时间同步,主机名

大数据 时间同步问题 解决hbase集群节点HRegionServer启动后自动关闭

1)在hbase-site.xml文件中 修改增加 ,将时间改大点<property><name>hbase.master.maxclockskew</name><value>150000</value></property>2)修改系统时间,将时间改为一致(建议采用本方法):修改日期date -s 08/20/2016修改时间date -s 15:14:00检查硬件(CMOS)时间clock -r将系统时间写入CMOSclock -