CDH5.2.0升级到CDH5.3.3

公司有一个Spark on Yarn集群,基于CM5.2.0+CDH5.2.0搭建,Spark的版本是1.1.0.为了使用Spark1.2.0的一些特性,决定将集群版本升级到CM5.3.3+CDH5.3.3。之所以升级CM,是因为CM的版本号必须大于等于CDH的版本号。下面分成两个步骤介绍升级过程:CM升级和CDH升级。

1 CM升级过程介绍

    1.1 admin用户登陆http://10.10.244.137:7180/cmf/home,关闭集群服务和Cloudera management 服务

1.2 通过click 服务----》click 命令----》正在运行的命令,最近的命令,确认1.1操作成功

1.3 关闭每个主机上的agent.关闭CM Server所在主机上的server,如果用到了CM自带的数据库,关闭数据库

sudoservice cloudera-scm-agent stop;sudoservice cloudera-scm-server
stop; sudo service cloudera-scm-server-db stop(如果没有启动则显示“service cannot
be found”,如果显示“the shutdown
failed”,说明数据库正在使用);

1.4 升级Cloudera Manager Server Packages

配置YUM源---》执行sudo yum clean all;sudoyum
upgrade ‘cloudera-*‘;验证rpm -qa ‘cloudera-manager-*‘

1.5 启动Cloudera Manager Server

sudoservice cloudera-scm-server
start;

1.6 更新Cloudera manager Agent Packages

sudoservice
cloudera-scm-agent stop;Cloudera Manager installs Agent software----》No,
I would like to skip the agent upgrade nowand click Continue----》配置yum源----》sudo
yum clean all;sudoyum upgrade ‘cloudera-*‘;sudo
service cloudera-scm-agent start;

1.7 检验更新结果

7180首页----》主机----》Host Inspector

1.8 启动所有的服务

1.9 部署客户端配置

7180首页----》Deploy Client Configuration

2
CDH升级过程介绍

 
 2.1 升级CDH的Packages

关闭所有服务----》配置Yum源----》sudo yum clean all;sudo yum update(更新所有的CDH包)

2.2 更新符号链接,使之指向最新的安装的CDH的组件

sudo cloudera-scm-agent restart

2.3 备份namenode元数据和DB数据

HDFS----》配置-----》NameNode 数据目录,备份之;

DB备份例子:mysqldump -uroot -h10.10.244.137 -p rman>/home/cloudera/sql-copy/rman.sql

2.4 执行更新向导

登陆到7180首页----》点击clustername旁边的按钮---->Upgrade
Cluster---->Choose Method 选择Use Packages----》Choose CDH Version
选择CDH的版本号----》。。。。。。

时间: 2024-11-06 03:29:54

CDH5.2.0升级到CDH5.3.3的相关文章

hadoop2.3.0cdh5.0.2 升级到cdh5.7.0

后儿就放假了,上班这心真心收不住,为了能充实的度过这难熬的两天,我决定搞个大工程.....ps:我为啥这么期待放假呢,在沙发上像死人一样躺一天真的有意义嘛....... 当然版本:hadoop2.3.0cdh5.0.2 机器:   nn dn jn rm nm jh hmaster hregionserver mast1 是 是 是 是 是   是 是 mast2 是 是 是 是 是   是 是 mast3   是 是   是 是   是 目标版本:hadoop2.6.0cdh5.7.0 升级方

Centos-6.5安装CDH-5.9.0教程

Centos-6.5安 本文是为了帮助想以Cloudera搭建自己大数据管理和运行平台的朋友,由于Cloudera有多种安装方式,经过多次的尝试和研究,本文介绍的是其中一种更容易安装成功的方式,供大家参考. Cloudera的介绍可参考官方文档 cloudera介绍 包含cloudera的各个工程项目,这里就不再细说,直接进入正题. 一.准备工作 1.下载CDH相关文件 Cloudera Manager :http://archive.cloudera.com/cm5/cm/5/cloudera

cdh4.6.0到cdh5.2.0 upgrade和rollback问题小结

upgrade小结:1.dfsadmin -upgradeProgress status 在cdh5.2.0中没有,在4.6.0有(见源码org.apache.hadoop.hdfs.tools.DFSAdmin)升级的时候不能通过这个看到升级状态rollingUpgrade这个参数在4.6.0中不存在,在5.2.0中有,可以用于滚动升级2.在cdh5.2.0中执行upgrade,nn中调用的命令是 hadoop-daemon.sh start namenode -upgrade 最终调用org

Cloudera Hadoop 5& Hadoop高阶管理及调优课程(CDH5,Hadoop2.0,HA,安全,管理,调优)

1.课程环境 本课程涉及的技术产品及相关版本: 技术 版本 Linux CentOS 6.5 Java 1.7 Hadoop2.0 2.6.0 Hadoop1.0 1.2.1 Zookeeper 3.4.6 CDH Hadoop 5.3.0 Vmware 10 Hive 0.13.1 HBase 0.98.6 Impala 2.1.0 Oozie 4.0.0 Hue 3.7.0 2.内容简介 本教程针对有一定Hadoop基础的学员,深入讲解如下方面的内容: 1.Hadoop2.0高阶运维,包括H

cdh-5.10.0搭建安装

1.修改主机名为master, slave1, slave2 vim /etc/sysconfig/network HOSTNAME = master HOSTNAME = slave1 HOSTNAME = slave2 2.修改hosts文件(三个节点都要设置) vim /etc/hosts 192.168.1.7 master 192.168.1.8 slave1 192.168.1.9 slave2 3.IP设置(三个节点都要设置) DEVICE=eth0 HWADDR=4C:CC:6A

在CDH5.5.0上安装Kudu6.0

1. 下载安装文件: a. CSD文件:KUDU-0.6.0.jar b. kudu parcel:KUDU-0.6.0-1.kudu0.6.0.p0.334-el6.parcel和manifest.json文件 c. impala-kudu:IMPALA_KUDU-2.3.0-1.cdh5.5.0.p0.15-el6.parcel + manifest.json文件 2.将CSD文件KUDU-0.6.0.jar移到/opt/cloudera/csd下面并重启服务器 3.将KUDU-0.6.0-

Impala学习笔记(一)CDH5.4.0安装

鲁春利的工作笔记,好记性不如烂笔头 Impala是Cloudra公司发布的实时查询开源项目,基于Hive但使用内存进行计算,是使用CDH的首选PB级大数据实时查询分析引擎. Impala的安装方式有两种,CM方式和手动安装,手动安装比较麻烦,需要额外的步骤验证与其他组件的交互,这里采用CM的方式安装. 1.安装准备 CM当前最新版本为5.5.1,这里安装CM5.4.0和CDH5.4.0. http://www.cloudera.com/content/www/en-us/downloads.ht

centos7安装CDH5.5.0

1.安装jdk mkdir -p /usr/java tar zxvf jdk-7u80-linux-x64.tar.gz -C /usr/java/ vi /etc/profile export JAVA_HOME=/usr/java/jdk1.7.0_80 export PATH=$PATH:$JAVA_HOME/bin export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib source /etc/profile alte

Centos6.5安装配置Cloudera Manager CDH5.6.0 Hadoop

环境规划操作系统版本:CentOS-6.5-x86_64-minimal.iso 192.168.253.241    master   虚拟机4G内存192.168.253.242    slave1    虚拟机2G内存192.168.253.243    slave2    虚拟机2G内存 一.环境初始化1.修改主机名(每台机器都执行) 192.168.253.241    master 192.168.253.242    slave1 192.168.253.243    slave2