实战weblogic集群之创建节点和集群

一、启动weblogic,访问控制台

weblogic的domain创建完成后,接下来就可以启动它,步骤如下:

$ cd /app/sinova/domains/base_domain/bin
$ ./startWebLogic.sh

按照提示输入创建domain时设置的用户名及密码(weblogic,weblogic123)。

二、创建节点和集群

1、打开浏览器访问:http://10.70.52.11:7001/console

2、输入用户名密码登录

3、创建节点和集群

点击“锁定并编辑”,“环境”,“服务器”

点击新建,创建节点和集群

此集群节点及端口分布情况如下

10.70.50.11 9000~9009

10.70.50.12 9000~9009

10.70.50.13 9000~9009

10.70.50.14 9000~9009

节点和集群创建完成截图如下:

4、对管理服务器及被管理服务器启用认证文件

4.1、配置管理服务器(adminServer)无密码启动

$ cd /app/sinova/domains/base_domain/servers/AdminServer
$ mkdir security
$ cd security/
$ vi boot.properties #添加如下内容
username=weblogic
password=weblogic123

4.2、配置被管理服务器(各节点)无密码启动

$ cd /app/sinova/domains/base_domain/bin
$ vi startManagedWebLogic.sh #找到如下两行,位于45行和48行
WLS_USER=""
WLS_PW=""
修改成:
WLS_USER="weblogic"
WLS_PW="weblogic123"

5、创建管理服务器及被管理服务器的启动(或重启)脚本,之后可以通过脚本对集群中的节点进行重启操作

AdminServer的重启脚本:

$ cat restart-admin.sh
#!/bin/bash
#/app/sinova/logs/console 此目录存放控制台日志,需要手动创建
DATE=`date +%Y%m%d`
USER_MEM_ARGS="-Xms1024m -Xmx1024m -XX:MaxPermSize=256m"
export USER_MEM_ARGS
ps -ef | awk ‘/[A]dminServer/{print $2}‘ | xargs kill -9 > /dev/null 2>&1
rm -fr /app/sinova/domains/base_domain/servers/AdminServer/tmp/*
nohup /app/sinova/domains/base_domain/bin/startWebLogic.sh > /app/sinova/logs/console/admin-${DATE}.log 2>&1 &

各节点的重启脚本(每个节点需要一个重启脚本)

$ cat restart_node1.sh
#!/bin/bash
DATE=`date +%Y%m%d`
WLS_NODE="Server-0" #其它节点脚本修改这个名称即可
USER_MEM_ARGS="-Xms1024m -Xmx2048m -XX:MaxPermSize=512m"
JAVA_OPTIONS="-DUseSunHttpHandler=true"
ServiceIP=10.70.52.11
export USER_MEM_ARGS JAVA_OPTIONS WLS_NODE ServiceIP
ps -ef | grep java | grep weblogic | grep -w ${WLS_NODE} | awk ‘{print $2}‘ | xargs kill -9 > /dev/null 2>&1
rm -rf /app/sinova/domains/base_domain/servers/${WLS_NODE}/tmp/*
sleep 1
nohup /app/sinova/domains/base_domain/bin/startManagedWebLogic.sh ${WLS_NODE} http://${ServiceIP}:7001/ >/app/sinova/logs/console/${WLS_NODE}-${DATE}.log 2>&1 &

6、将Oracle、domains这两个目录拷到10.70.52.12-14这3台服务器

$ rsync -avz /app/sinova/domains 10.70.52.12:/app/sinova/
$ rsync -avz /app/sinova/Oracle 10.70.52.12:/app/sinova/
$ rsync -avz /app/sinova/domains 10.70.52.13:/app/sinova/
$ rsync -avz /app/sinova/Oracle 10.70.52.13:/app/sinova/
$ rsync -avz /app/sinova/domains 10.70.52.14:/app/sinova/
$ rsync -avz /app/sinova/Oracle 10.70.52.14:/app/sinova/

7、执行脚本启动AdminServer和集群中所有节点,启动后效果如下:

时间: 2024-10-14 14:28:17

实战weblogic集群之创建节点和集群的相关文章

实战weblogic集群之创建domain,AdminServer

在weblogic安装完后,接下来就可以创建domain,AdminSever了. 第1步: $ cd /app/sinova/Oracle/wlserver_10.3/common/bin $ ./config.sh Unable to instantiate GUI, defaulting to console mode. Java HotSpot(TM) 64-Bit Server VM warning: You have loaded library /app/sinova/Oracle

实战1 伪分布式Hadoop单节点实例 CDH4集群安装 Hadoop

Hadoop由两部分组成 分布式文件系统HDFS 分布式计算框架MapReduce 其中分布式文件系统(HDFS)主要用于大规模数据的分布式存储,而MapReduce则构建在分布式文件系统之上,对于存储在分布式文件系统中的数据进行分布式计算. 详细的介绍个节点的作用 NameNode: 1.整个Hadoop集群中只有一个NameNode.它是整个系统的中枢,它负责管理HDFS的目录树和相关文件 元数据信息.这些信息是以"fsimage (HDFS元数据镜像文件)和Editlog(HDFS文件改动

kafka系列二:多节点分布式集群搭建

上一篇分享了单节点伪分布式集群搭建方法,本篇来分享一下多节点分布式集群搭建方法.多节点分布式集群结构如下图所示: 为了方便查阅,本篇将和上一篇一样从零开始一步一步进行集群搭建. 一.安装Jdk 具体安装步骤可参考 linux安装jdk. 二.安装与配置zookeeper 下载地址:https://www-us.apache.org/dist/zookeeper/stable/ 下载二进制压缩包 zookeeper-3.4.14.tar.gz,然后上传到linux服务器指定目录下,本次上传目录为 

Elasticsearch 7.x 之节点、集群、分片及副本

从物理空间概念,Elasticsearch 分布式系统会有 3 个关键点需要学习.本次总结了下面相关内容: 分布式 节点 & 集群 主分片及副本 一.Elasticsearch 分布式 Elasticsearch 分布式特性包括如下几个点: 1.1 高可用 什么是高可用?CAP 定理是分布式系统的基础,也是分布式系统的 3 个指标: Consistency(一致性) Availability(可用性) Partition tolerance(分区容错性) 那高可用(High Availabili

RHCS之用css_tool命令创建HA集群及创建gfs2集群文件系统

准备环境 node1:192.168.139.2 node2:192.168.139.4 node4:192.168.139.8 node5:192.168.139.9 node1 作为target端 node2 node4 node5 作为initiator端 并且将node2 node4 node5安装cman+rgmanager后配置成一个三节点的RHCS高可用集群,因为gfs2为一个集群文件系统,必须借助HA高可用集群将故障节点Fence掉,及借助Message Layer进行节点信息传

redis集群的创建及其使用

集群配置参数: cluster-enabled yes     //开启集群 cluster-config-file nodes.conf    //保存集群信息的文件 cluster-node-timeout 5000         //集群节点超时时间 集群环境准备: 集群管理工具redis-trib是由ruby语言研发的,需要先安装ruby的依赖关系及环境: redis的源码文件中有一个管理工具,是用ruby写的,所以需要安装ruby相关的软件: yum install ruby rub

理解 OpenStack Swift (1):OpenStack + 三节点Swift 集群+ HAProxy + UCARP 安装和配置

本系列文章着重学习和研究OpenStack Swift,包括环境搭建.原理.架构.监控和性能等. (1)OpenStack + 三节点Swift 集群+ HAProxy + UCARP 安装和配置 (2)Swift 原理和架构 (3)Swift 监控 (4)Swift 性能 要实现的系统的效果图: 特点: 使用三个对等物理节点,每个节点上部署所有Swift 服务 使用开源的 UCARP 控制一个 VIP,它会被绑定到三个物理网卡中的一个. 使用开源的 HAProxy 做负载均衡 开启 Swift

搭建高可用mongodb shard 集群以及多节点备份

mongodb通过哪些机制实现路由.分片: 从图中可以看到有四个组件:mongos.config server.shard.replica set. mongos,数据库集群请求的入口,所有的请求都通过mongos进行协调,不需要在应用程序添加一个路由选择器,mongos自己就是一个请求分发中心,它负责把对应的数据请求请求转发到对应的shard服务器上.在生产环境通常有多mongos作为请求的入口,防止其中一个挂掉所有的mongodb请求都没有办法操作. config server,顾名思义为配

创建pacemaker+corosync集群

[实验环境] 系统 主机名 IP 类型 RHEL7.1 node 192.168.122.1 物理机 .. node1 192.168.122.10 kvm guestos .. node2 192.168.122.20 kvm guestos .. node3 192.168.122.30 kvm guestos 注意:因为后期要配置fence,所有实验均在KVM下完成.实验使用的是kvm默认的nat网络,故其他机器不能和这些guest os进行通信,只有物理机能和其通信. [拓扑图] [环境