cloudstack4.5私有云集群规划与安装

一、集群规划

通常规定每个IDC为一个zone,每个机架为一个pod(按照42U/13A计算,每个机架防止大约12台物理服务器);

前期不论有多少台服务器,最好的架构设计一定是双pod架构;

最好是用独立的NFS服务器(cpu消耗大,io高,适合独立运行);

参考:

cloudstack名词解释

二、服务器规划

1、远程管理(管理卡):

master.cloud.test 远程管理地址:10.10.13.1xx 权限:root/calvin

node1.cloud.test 远程管理地址:10.10.13.1xx 权限:root/calvin

node2.cloud.test 远程管理地址:10.10.13.1xx 权限:root/calvin

2、网络规划

cloudstack测试集群网络地址段:192.168.11.0/20

cloudstack测试集群服务器地址:192.168.11.1 - 192.168.11.3

                网关              掩码                  ip段
#管理网:192.168.1.1  255.255.240.0  192.168.11.1 ~ 192.168.11.20
#来宾网:192.168.1.1  255.255.240.0  192.168.11.30 ~192.168.11.200
#存储网:192.168.1.1  255.255.240.0  192.168.11.210 ~ 192.168.11.230
#主存储 (nfs) :  192.168.1.1  255.255.240.0  192.168.11.2  P_Storage
#辅存储 (nfs) :     192.168.1.1  255.255.240.0  192.168.11.2  S_Storage01

cloudstack模版地址: http://192.168.x.x/4.5/

cloudstack management 平台地址:

http://192.168.11.2:8080/client/

用户名/密码:admin/password

三、初始化系统

//master,node1,node2上都要执行:

for i in NetworkManager acpid anacron apmd atd auditd autofs avahi-daemon avahi-dnsconfd bluetooth conman cpuspeed crond cups dnsmasq dund firstboot gpm haldaemon hidd ibmasm ip6tables iptables irda isdn irqbalance kdump kudzu lvm2-monitor mcstrans mdmonitor mdmpd messagebus microcode_ctl multipathd mysqld netconsole netfs netplugd network nfs nfslock nscd ntpd oddjobd pand pcscd portmap psacct rawdevices rdisc readahead_early readahead_later restorecond rpcgssd rpcidmapd rpcsvcgssd saslauthd sendmail setroubleshoot smartd smb snmpd snmptrapd sshd syslog tcsd winbind wpa_supplicant xfs ypbind yum-updatesd postfix auditd blk-availability ip6tables lvm2-monitor netfs udev-post cups nfslock rpcbind portreserve certmonger; do chkconfig $i off; done
cat >/etc/sysctl.conf <<EOF
net.ipv4.ip_forward = 1
net.ipv4.conf.default.rp_filter = 0
net.ipv4.conf.default.accept_source_route = 0
kernel.sysrq = 0
kernel.core_uses_pid = 1
net.ipv4.tcp_syncookies = 1
kernel.msgmnb = 65536
kernel.msgmax = 65536
kernel.shmmax = 68719476736
kernel.shmall = 4294967296
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce = 2
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2
#net.ipv4.tcp_max_tw_buckets = 20000
net.ipv4.tcp_max_tw_buckets = 180000
net.ipv4.tcp_sack = 1
net.ipv4.tcp_window_scaling = 1
net.ipv4.tcp_rmem = 4096        87380   4194304
net.ipv4.tcp_wmem = 4096        16384   4194304
net.core.wmem_default = 8388608
net.core.rmem_default = 8388608
net.core.rmem_max = 16777216
net.core.wmem_max = 16777216
net.core.netdev_max_backlog = 262144
net.core.somaxconn = 262144
net.ipv4.tcp_max_orphans = 3276800
net.ipv4.tcp_max_syn_backlog = 262144
net.ipv4.tcp_timestamps = 0
net.ipv4.tcp_synack_retries = 1
net.ipv4.tcp_syn_retries = 1
net.ipv4.tcp_tw_recycle = 1
net.ipv4.tcp_tw_reuse = 1
net.ipv4.tcp_mem = 94500000 915000000 927000000
net.ipv4.tcp_fin_timeout = 1
net.ipv4.tcp_keepalive_time = 30
net.ipv4.ip_local_port_range = 1024    65000
vm.min_free_kbytes=409600
vm.vfs_cache_pressure=200
vm.swappiness=40
EOF
sysctl -p
sed -i ‘s/SELINUX=enforcing/SELINUX=disabled/g‘ /etc/selinux/config
cat >> /etc/security/limits.conf << EOF
*        soft   nproc  65535
*        hard   nproc  65535
*        soft   nofile  65535
*        hard   nofile  65535
EOF
echo "blacklist acpi_pad" >> /etc/modprobe.d/blacklist.conf
ulimit -SHn 65535
echo ‘syntax on‘ > /root/.vimrc 2>/dev/null
sed -i ‘s/^GSSAPIAuthentication yes$/GSSAPIAuthentication no/‘ /etc/ssh/sshd_config
sed -i "s/#UseDNS yes/UseDNS no/" /etc/ssh/sshd_config
sed -i ‘s#exec /sbin/shutdown -r now#\#exec /sbin/shutdown -r now#‘ /etc/init/control-alt-delete.conf
sed -i ‘s/1024/65535/‘ /etc/security/limits.d/90-nproc.conf
/bin/cat > /etc/resolv.conf << _resolv
nameserver 223.5.5.5
nameserver 223.6.6.6
_resolv
/bin/cat > /etc/cron.daily/ntpdate << _ntpdate
#!/bin/bash
/usr/sbin/ntpdate 1.cn.pool.ntp.org && /sbin/hwclock --systohc
_ntpdate
chmod 755 /etc/cron.daily/ntpdate
mv /etc/yum.repos.d/CentOS-Base.repo /etc/yum.repos.d/CentOS-Base.repo.backup
wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-6.repo
yum clean all
yum makecache
yum -y install gcc gcc-c++ make autoconf
yum -y install wget ntp ntpdate vim openssh-clients telnet net-snmp traceroute tcpdump man xinetd rsync screen socat nload sysstat lsof unzip

四、coudstack环境安装

1: master.cloud.test

#以下部分在master,node上都要核对和设置
=====================================================

#核对网卡配置
/etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE=eth0
NM_CONTROLLED=no
ONBOOT=yes
BOOTPROTO=none
IPADDR=192.168.11.2
NETMASK=255.255.240.0
GATEWAY=192.168.1.1
DNS1=223.5.5.5
DNS2=223.6.6.6

#核对主机名
hostname --fqdn
master.cloud.test

#核对hosts文件
/etc/hosts
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.11.2 master.cloud.test
192.168.11.1 node1.cloud.test
192.168.11.3 node2.cloud.test

#核对信息如有调整则重启网络
service network restart

chkconfig ntpd on
service ntpd start

/bin/cat > /etc/yum.repos.d/cloudstack.repo << _cloudstack
[cloudstack]
name=cloudstack
baseurl=http://192.168.x.x/4.5/
enabled=1
gpgcheck=0
_cloudstack

#以下内容在master上独立安装
====================================

yum -y install nfs-utils
/bin/cat > /etc/exports << _export
/secondary *(rw,async,no_root_squash,no_subtree_check)
/primary *(rw,async,no_root_squash,no_subtree_check)
_export

mkdir /primary
mkdir /secondary

vim /etc/idmapd.conf
Domain = cloud.test

/bin/cat > /etc/sysconfig/nfs << _nfs
LOCKD_TCPPORT=32803
LOCKD_UDPPORT=32769
MOUNTD_PORT=892
RQUOTAD_PORT=875
STATD_PORT=662
STATD_OUTGOING_PORT=2020
_nfs

service rpcbind start
service nfs start
chkconfig rpcbind on
chkconfig nfs on

yum -y install mysql-server

vim /etc/my.cnf
following options to the [mysqld] section:

innodb_rollback_on_timeout=1
innodb_lock_wait_timeout=600
max_connections=350
log-bin=mysql-bin
binlog-format = ‘ROW‘

service mysqld start
chkconfig mysqld on

yum -y install cloudstack-management

cloudstack-setup-databases cloud:[email protected] --deploy-as=root

cloudstack-setup-management

/usr/share/cloudstack-common/scripts/storage/secondary/cloud-install-sys-tmplt -m /secondary -u http://192.168.x.x/4.5/systemvm64template-4.6.0-kvm.qcow2.bz2 -h kvm -F

#以下内容在node上独立安装
====================================

2: nodes.cloud.test

yum -y install cloudstack-agent

vim  /etc/libvirt/qemu.conf
vnc_listen = "0.0.0.0"

/bin/cat > /etc/libvirt/libvirtd.conf << _libvirt
listen_tls = 0
listen_tcp = 1
tcp_port = "16509"
auth_tcp = "none"
mdns_adv = 0
_libvirt

vim /etc/sysconfig/libvirtd
LIBVIRTD_ARGS="--listen"

service libvirtd restart

lsmod | grep kvm
kvm_intel              55496  0
kvm                   337772  1 kvm_intel

至此安装完成. 访问http://192.168.11.2:8080/client/ 配置和管理集群.

原文地址:https://www.cnblogs.com/gordonchang/p/9003776.html

时间: 2024-10-04 08:15:33

cloudstack4.5私有云集群规划与安装的相关文章

HDP2.4安装(五):集群及组件安装

HDP(Hortonworks Data Platform)是hortworks推出的100%开源的hadoop发行版本,以YARN 作为其架构中心,包含pig.hive.phoniex.hbase.storm.spark等大量组件,在最新的2.4版本,监控UI实现与grafana集成,包含组件版本对应图如下:(图片来自hortonwork官网) 安装过程: 集群规划 环境准备 软件包下载:  (HDP2.4的安装包过大,推荐离线安装) HDP安装部署 集群规划: 192.168.2.89   

ScoutSuite:一款针对云集群环境的安全审计工具

工具介绍 Scout Suite是一款针对云集群环境的开源安全审计工具,主要针对的是云端环境的安全状况.通过使用云服务提供商暴露的API,Scout Suite可以从高安全风险区域收集配置数据以备研究人员进行人工审计.值得一提的是,Scout Suite在进行完安全审计之后,可以自动给研究人员呈现清晰详尽的攻击面概览,而无需研究人员浏览繁杂的Web控制台信息. 注意:当前版本的Scout Suite为稳定版,并且会定期更新,同时会对内部功能和实现方法进行修改. 工具支持 当前版本的Scout S

Hadoop学习笔记_4_实施Hadoop集群 --伪分布式安装

实施Hadoop集群 --伪分布式安装 准备与配置安装环境 安装虚拟机和linux,虚拟机推荐使用vmware,PC可以使用workstation,服务器可以使用ESXi,在管理上比较方便.ESXi还可以通过拷贝镜像文件复制虚拟机,复制后自动修改网卡号和ip,非常快捷.如果只是实验用途,硬盘大约预留20-30G空间. 以Centos为例,分区可以选择默认[如果想要手动分区,请参考博客:http://blog.csdn.net/zjf280441589/article/details/175485

理解 OpenStack Swift (1):OpenStack + 三节点Swift 集群+ HAProxy + UCARP 安装和配置

本系列文章着重学习和研究OpenStack Swift,包括环境搭建.原理.架构.监控和性能等. (1)OpenStack + 三节点Swift 集群+ HAProxy + UCARP 安装和配置 (2)Swift 原理和架构 (3)Swift 监控 (4)Swift 性能 要实现的系统的效果图: 特点: 使用三个对等物理节点,每个节点上部署所有Swift 服务 使用开源的 UCARP 控制一个 VIP,它会被绑定到三个物理网卡中的一个. 使用开源的 HAProxy 做负载均衡 开启 Swift

高可用集群之heartbeat安装配置

高可用集群之heartbeat安装配置 说明: 系统为rhel 5.8 64bit heartbeat版本为v2 配置web高可用服务 节点为两个:node1和node2 创建高可用集群需要注意的地方: 各节点需要传递集群事务信息,传递时需要识别各节点,每个节点对对方的识别必须靠节点名称来实现,节点名称能够解析IP地址,配置DNS的话,如果DNS挂了,节点也找不到了,所以对于名称的解析不要依赖DNS,这就需要使用本地hosts文件,需要为每一个节点配置好hosts文件解析,每一个节点的hosts

Redis单机版和集群版的安装和部署

1.单机版的安装 本次使用redis3.0版本.3.0版本主要增加了redis集群功能. 安装的前提条件: 需要安装gcc:yum install gcc-c++ 1.1 安装redis 1.下载redis的源码包. 从官网下载 http://download.redis.io/releases/redis-3.0.0.tar.gz 2.把源码包上传到linux服务器 3.解压源码包并进入其目录 tar -zxvf redis-3.0.0.tar.gz 4.make cd /usr/local/

Ubuntu14(64位) 集群环境下安装Hadoop2.4

经过前边的积累,今天终于实现了集群环境下部署Hadoop,并成功运行了官方的例子. 工作如下: 两台机器: NameNode:上网小本,3G内存,机器名:YP-X100e,IP:192.168.101.130. DataNode:虚拟机,Win7下载VMWare10中虚拟Ubuntu14,虚拟机器名:ph-v370,IP:192.168.101.110 确保可互相ping通,按照机器名和IP配置各自机器的/etc/hosts文件和/etc/hostname文件,我的hosts配置内容如下 127

Spark新手入门——3.Spark集群(standalone模式)安装

主要包括以下三部分,本文为第三部分: 一. Scala环境准备 查看二. Hadoop集群(伪分布模式)安装 查看三. Spark集群(standalone模式)安装 Spark集群(standalone模式)安装 若使用spark对本地文件进行测试学习,可以不用安装上面的hadoop环境,若要结合hdfs使用spark,则可以参考上面的步骤搭建hadoop. 1. 下载安装包并解压(如:~/tools/spark-2.3.1-bin-hadoop2.7): 2. 启动服务 a.启动master

规划和安装邮件系统

1.1.1电子邮件系统的组成部分 邮件系统是一套单独的系统,它有自己独立的服务器,目的是传递计算机用户之间的数据.电子邮件系统的做有包括书写,发送,存储和接受四个方面,用户通过邮件服务器申请一个邮箱,就可以使用电子邮件服务收发邮件,电子邮件系统由两大部分组成,包括MUA和MTA. 1.邮件用户代理 邮件用户代理客户端是用来阅读和书写邮件的一种程序,用于接受用户输入的各种程序指令,将用户的邮件发送到邮件服务器中,或者通过POP3或IMAP协议将邮件从邮件服务器读取到本机.目前常见的邮件用户代理软件