cloudera manager集群节点更换IP的启动方法

  • 机器ip修改后,主机名不要动,修改/etc/hosts文件,将各主机名对应的ip修改
  • 登陆cloudera manager 的mysql数据库
    mysql -uroot -pxxxxxx
    use cm;
    修改CM_VERSION表的HOSTNAME字段和HOSTS表的IP_ADDRESS
  • 启动集群:
    /opt/cm-5.9.0/etc/init.d/cloudera-scm-server start
    /opt/cm-5.9.0/etc/init.d/cloudera-scm-agent start
  • 不出意外impala集群能全部启动,如果没有启动成功,浏览器访问该机器第一个节点的ip:7180 ,浏览器中对未启动的服务进行启动.或者重启机器,启动cloudera-scm-server,cloudera-scm-agent服务
  • 注意查看防火墙和selinux是否关闭
  • 原文地址:http://blog.51cto.com/yjy724/2146203

    时间: 2024-10-09 02:30:57

    cloudera manager集群节点更换IP的启动方法的相关文章

    SQLServer Always On FCI 集群节点同时占用资源及可疑状态修复

    FCI 双节点集群,由于晚上集群节点间的网络中断过,两个节点都认为另一个节点宕机,在各节点的集群管理中都看到对方已宕机. 连接到集群IP,提示 msdb 数据库有问题: 发现MSDB数据库 "可疑" msdb 损坏了,mssql 错误日志和代理日志也无就法查询,从windows查看到信息如下: SQL Server 断言: 文件: <xdes.cpp>,行=3785 失败的断言 = 'curr->GetXdesId () == m_xdesId'.此错误可能与时间有关

    Redis集群节点主从关系调整

    一.概述 Redis集群创建后,可能会出现互为主从关系的节点从属于同一台服务器的情况.在此种情况下,若 服务器故障宕机或需要停机维护,互为主从关系的节点同时停止运行,导致redis集群暂时失去一部 分slot插槽.此时,redis集群为fail状态,对其进行的数据读写操作均无法正常进行.为避免此种情 况的发生,应对redis集群节点的主从关系进行调整,使互为主从关系的节点分属于不同的服务器. 二.调整方法描述 1.使用redis-trib.rb脚本将待调整的从节点从redis集群中删除.(执行此

    redis演练(10) redis Cluster 集群节点维护

    通过<redis演练(9)>演练,借助自带的redis-trib.rb工具,可"秒出"一个6节点的主从集群:还可以阅读服务器的响应:还演练了下自动failover效果. 接上回继续演练.本文演练内容涵盖以下内容. 为6节点集群环境,添加新节点 删除新增的新节点 集群间迁移 1.添加新节点 #环境清理 [[email protected] create-cluster]# ./create-cluster clean [[email protected] create-clu

    LVS集群中的IP负载均衡技术

    章文嵩 ([email protected]) 转自LVS官方参考资料 2002 年 4 月 本文在分析服务器集群实现虚拟网络服务的相关技术上,详细描述了LVS集群中实现的三种IP负载均衡技术(VS/NAT.VS/TUN和VS/DR)的工作原理,以及它们的优缺点. 1.前言在 前面文章中,讲述了可伸缩网络服务的几种结构,它们都需要一个前端的负载调度器(或者多个进行主从备份).我们先分析实现虚拟网络服务的主要技术,指出 IP负载均衡技术是在负载调度器的实现技术中效率最高的.在已有的IP负载均衡技术

    如何一步一步删除(linux &amp; UNIX)环境下 oracle 11g 集群节点

     Deleting a Cluster Node on Linux and UNIX Systems 1.确定要删除的节点,是否active,pinned $ olsnodes -s -t 如果 pinned ,则crsctl unpin css  -n <nodename>  unpinned 相应的节点 2.禁用相应集群节点的应用资源,进程 先停掉 em: emctl stop dbconsole 以root 用户运行 在要删除节点的 $Grid_home/crs/install 路径

    分布式数据库集群节点数据一致性校验

    某500强客户要上线一个功能,其后台所有数据库是我司设计开发的NoSQL数据库. 为了避免数据库集群中,数据节点不一致而导致问题,需要对数据库节点间的数据进行校验. 理论上说,数据库节点之间的数据,应当保持最终一致性.而我司的数据库,是在对主节点对数据进行操作时,coord节点会(立即)通知备节点拉取数据,从而保持数据的一致性.所以,对于正常运行的数据库来说,一个集群内每个节点上的数据,是完全一致的. 客户是上帝,我们所作的就是要让客户放心.虽然我们强调我们的数据库集群内的节点中数据是一致的,让

    Akka(12): 分布式运算:Cluster-Singleton-让运算在集群节点中自动转移

    在很多应用场景中都会出现在系统中需要某类Actor的唯一实例(only instance).这个实例在集群环境中可能在任何一个节点上,但保证它是唯一的.Akka的Cluster-Singleton提供对这种Singleton Actor模式的支持,能做到当这个实例所在节点出现问题需要脱离集群时自动在另一个节点上构建一个同样的Actor,并重新转交控制.当然,由于涉及了一个新构建的Actor,内部状态会在这个过程中丢失.Single-Actor的主要应用包括某种对外部只能支持一个接入的程序接口,或

    Oracle12.2 RAC集群管理之IP地址修改_Oracle12cR2视频教程(项目实战之七)

    一.课程主题 风哥Oracle数据库教程12cR2(项目实战之七):基于Linux操作系统的Oracle12.2 RAC集群的管理之修改IP地址(public ip,vip ip,scan ip,private ip). Oracle12.2 RAC集群管理之IP地址修改_Oracle12cR2视频教程(项目实战之七) http://edu.51cto.com/course/10244.html 二.项目需求 根据业务的需求,XXX客户需要由原来的临时环境的RAC IP改为生产环境的RAC IP

    Redis集群节点的选举(实验)

    Redis集群节点的选举: 当master挂掉之后,就会在该集群中的slave中选取一个来代替mater角色, 从而保证redis集群slot的完整性. 如果其中一个mster和它的slave都挂掉后,会导致slot不完整,整个集群都会挂掉. 集群节点信息: 192.168.2.200:6379> cluster nodes 3ff3a74f9dc41f8bc635ab845ad76bf77ffb0f69 192.168.2.201:6379 master - 0 1527145806504 5