Puppet3在CentOS6.5集群下的安装

环境:3台主机,

IP分别为10.211.55.11、12、13

puppet master安装在10.211.55.11

puppet agent安装在10.211.55.11、12、13

1、安装EPEL库 后面安装puppet Dashboard需要


1

2

3

yum
install yum-priorities

rpm
-ivh https:
//dl.fedoraproject.org/pub/epel/epel-release-latest-6.noarch.rpm 

rpm
import https://dl.fedoraproject.org/pub/epel/RPM-GPG-KEY-EPEL-6

其中源可以替换为国内镜像


1

2

http://mirrors.ustc.edu.cn/fedora/epel/epel-release-latest-6.noarch.rpm

http://mirrors.ustc.edu.cn/fedora/epel/RPM-GPG-KEY-EPEL-6

修改/etc/yum.repos.d/epel.repo文件

在[epel]最后添加一条属性


1

priority=11

意思是yum先去官方源查,官方没有再去epel的源找

2、在10.211.55.11上安装dnsmasq域名解析服务


1

2

3

4

5

yum
install dnsmasq

chkconfig
dnsmasq on

service
dnsmasq start

lokkit
-p 
53:udp(打开iptables 53端口)

echo "10.211.55.11
node01.myhost.com"
 >>
/etc/hosts 

修改dnsmasq.conf


1

2

3

4

5

interface=eth0

listen-address=10.211.55.11

bind-interfaces

resolv-file=/etc/resolv.conf

addn-hosts=/etc/hosts

三台主机上分别输入


1

echo
“nameserver 
10.211.55.11
>> /etc/resolv.conf

改主机名


1

2

vi /etc/sysconfig/network 

分别改为node01.myhost.com、node02.myhost.com、node03.myhost.com

验证DNS是否成功


1

2

netstat
-tunlp|grep 
53

dig
node02.myhost.com

3、在10.211.55.11安装时间同步服务器


1

2

3

yum
install ntp

chkconfig
ntpd on

service
ntpd start

(待完善)

4、安装Puppet

安装官方源


1

rpm
-ivh http:
//yum.puppetlabs.com/puppetlabs-release-el-6.noarch.rpm

导入GPG密钥(验证包的完整性)


1

rpm
--
import http://yum.puppetlabs.com/RPM-GPG-KEY-puppetlabs

安装


1

2

3

4

5

yum
install puppet-server

service
puppetmaster start

service
puppet start

chkconfig
puppetmaster on

chkconfig
puppet on

编辑/etc/puppet/puppet.conf


1

2

[agent]

server
= node01.myhost.com

自动签名


1

cat
> /etc/puppet/autosign.conf <

测试连接


1

puppet
agent -t

删除证书


1

find
/var/lib/puppet/ssl -name localhost.pem -delete

常用信息


1

2

3

4

5

6

7

puppet
cert list -all(查看所有证书)

cat
/etc/sysconfig/puppet(默认配置)

/var/lib/puppet
(agent证书位置)

/etc/puppet/puppet.conf
(配置文件)

/usr/share/puppet
(安装位置)

puppet
config print modulepath(查看模块位置)

puppet
agent -t --summarize(查看报告)

5、安装Dashboard 安装


1

yum
install -y mysql mysql-devel mysql-server httpd mod_passenger puppet-dashboard

mod_passenger是让apache支持ruby

配置:

/etc/my.cnf,

在[mysqld]字段,增加最后一行


1

2

#
Allowing 32MB allows an occasional 17MB row with plenty of spare room

max_allowed_packet
= 32M


1

2

3

4

5

/etc/init.d/mysqld
start

chkconfig
mysqld on

chkconfig httpd 
on

service
httpd start

mysqladmin
-u root password 
‘password‘

创建一个dashboard数据库


1

mysql
-uroot -ppassword <

编辑 /usr/share/puppet-dashboard/config/database.yml


1

2

3

4

5

6

production:

  database:
dashboard

  username:
dashboard

  password:
password

  encoding:
utf8

  adapter:
mysql

修改时区 /usr/share/puppet-dashboard/config/environment.rb


1

2

#config.time_zone
‘UTC‘

  config.time_zone
‘Beijing‘

初始化数据库


1

2

cd
/usr/share/puppet-dashboard/

rake
RAILS_ENV=production db:migrate

配置Apache


1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

cat
> /etc/httpd/conf.d/passenger.conf << EOF

LoadModule
passenger_module modules/mod_passenger.so

   PassengerRoot
/usr/share/rubygems/gems/passenger-
3.0.17

   PassengerRuby
/usr/bin/ruby

   PassengerHighPerformance
on

   PassengerMaxPoolSize 12

   PassengerPoolIdleTime 1500

   PassengerStatThrottleRate 120

   RailsAutoDetect
On

    

       ServerName
node01.myhost.com

       DocumentRoot "/usr/share/puppet-dashboard/public/"

       <Directory "/usr/share/puppet-dashboard/public/">

          Options
None

          AllowOverride
AuthConfig

          Order
allow,deny

                  allow
from all

       

       ErrorLog
/var/log/httpd/node01.myhost.com_error.log

       LogLevel
warn

       CustomLog
/var/log/httpd/node06.chenshake.com_access.log combined

       ServerSignature
On

    

EOF

/etc/init.d/httpd
start

chkconfig
httpd on

lokkit
-p 
80:tcp

配置puppet


1

2

3

4

#
puppet.conf (on puppet master)

  [master]

    reports
= store, http

    reporturl
= http:
//node06.chenshake.com:80/reports/upload

/etc/init.d/puppetmaster restart

导入报告


1

2

3

4

5

6

7

8

cd
/usr/share/puppet-dashboard

rake
gems:refresh_specs

rake
RAILS_ENV=production reports:
import

Delayed
Job Workers

env
RAILS_ENV=production /usr/share/puppet-dashboard/script/delayed_job -p dashboard -n 
4 -m
start

ps
-ef|grep delayed_job|grep -v grep

env
RAILS_ENV=production /usr/share/puppet-dashboard/script/delayed_job -p dashboard -n 
4 -m
stop

这个时候你才能在Dashbaord里看到数据

6、安装Foreman (待完善)

参考:

http://www.chenshake.com/puppet-study-notes/

http://acooly.iteye.com/blog/1993484

版权声明:本文为博主原创文章,未经博主允许不得转载。

时间: 2024-10-13 07:05:55

Puppet3在CentOS6.5集群下的安装的相关文章

用redis实现tomcat集群下的session共享

上篇实现了 LINUX中NGINX反向代理下的TOMCAT集群(http://www.cnblogs.com/yuanjava/p/6850764.html) 这次我们在上篇的基础上实现session 共享问题 Nginx机器:192.168.1.108 两台tomcat机器分别是:192.168.1.168 192.168.1.178 一:测试session共享问题 在原index.jsp页面添加如下代码 SessionId:<%= session.getId() %> <% Stri

was集群下基于接口分布式架构和开发经验谈

某b项目是我首次采用was环境下架构和开发的手机wap应用,尽管做到了该项目的主程,但对此项目的全面构件依然有不清楚的地方,因此在这里我只能简单的谈谈开发中遇到的问题怎么处理和应对办法. 记得第一天接触这个项目时,只记得些案例代码(不知道那些是对的,那些是错的)似曾相识,但不懂如何动手写下第一个helloword,因其中的基于接口开发的ejb的架构以前根本就没接触过.好了,没办法,于是只有硬着头皮去尝试第一个基于接口开发的ejb的第一个查询方法(呵呵最简单了吧).因为一切都是新的,一没有相对完整

集群下使用redis统一session处理

pom依赖(快照版): <dependency> <groupId>org.springframework.session</groupId> <artifactId>spring-session</artifactId> </dependency> <dependency> <groupId>org.springframework.data</groupId> <artifactId>

Jenkins集群下的pipeline实战

关于Jenkins集群 在<快速搭建Jenkins集群>一文中,我们借助docker快速搭建了Jenkins集群,今天就在这个集群环境中创建pipeline任务,体验Jenkins集群下的并行任务: 环境信息 整个集群环境一共有三台电脑,信息如下: | 主机名 | IP地址 | 作用 | |--|--|--| | master | 192.168.133.131 | Jenkins集群的master节点,提供web服务 | | agent1 | 192.168.133.132 | Jenkin

Hadoop学习笔记_4_实施Hadoop集群 --伪分布式安装

实施Hadoop集群 --伪分布式安装 准备与配置安装环境 安装虚拟机和linux,虚拟机推荐使用vmware,PC可以使用workstation,服务器可以使用ESXi,在管理上比较方便.ESXi还可以通过拷贝镜像文件复制虚拟机,复制后自动修改网卡号和ip,非常快捷.如果只是实验用途,硬盘大约预留20-30G空间. 以Centos为例,分区可以选择默认[如果想要手动分区,请参考博客:http://blog.csdn.net/zjf280441589/article/details/175485

理解 OpenStack Swift (1):OpenStack + 三节点Swift 集群+ HAProxy + UCARP 安装和配置

本系列文章着重学习和研究OpenStack Swift,包括环境搭建.原理.架构.监控和性能等. (1)OpenStack + 三节点Swift 集群+ HAProxy + UCARP 安装和配置 (2)Swift 原理和架构 (3)Swift 监控 (4)Swift 性能 要实现的系统的效果图: 特点: 使用三个对等物理节点,每个节点上部署所有Swift 服务 使用开源的 UCARP 控制一个 VIP,它会被绑定到三个物理网卡中的一个. 使用开源的 HAProxy 做负载均衡 开启 Swift

高可用集群之heartbeat安装配置

高可用集群之heartbeat安装配置 说明: 系统为rhel 5.8 64bit heartbeat版本为v2 配置web高可用服务 节点为两个:node1和node2 创建高可用集群需要注意的地方: 各节点需要传递集群事务信息,传递时需要识别各节点,每个节点对对方的识别必须靠节点名称来实现,节点名称能够解析IP地址,配置DNS的话,如果DNS挂了,节点也找不到了,所以对于名称的解析不要依赖DNS,这就需要使用本地hosts文件,需要为每一个节点配置好hosts文件解析,每一个节点的hosts

Redis单机版和集群版的安装和部署

1.单机版的安装 本次使用redis3.0版本.3.0版本主要增加了redis集群功能. 安装的前提条件: 需要安装gcc:yum install gcc-c++ 1.1 安装redis 1.下载redis的源码包. 从官网下载 http://download.redis.io/releases/redis-3.0.0.tar.gz 2.把源码包上传到linux服务器 3.解压源码包并进入其目录 tar -zxvf redis-3.0.0.tar.gz 4.make cd /usr/local/

Spark新手入门——3.Spark集群(standalone模式)安装

主要包括以下三部分,本文为第三部分: 一. Scala环境准备 查看二. Hadoop集群(伪分布模式)安装 查看三. Spark集群(standalone模式)安装 Spark集群(standalone模式)安装 若使用spark对本地文件进行测试学习,可以不用安装上面的hadoop环境,若要结合hdfs使用spark,则可以参考上面的步骤搭建hadoop. 1. 下载安装包并解压(如:~/tools/spark-2.3.1-bin-hadoop2.7): 2. 启动服务 a.启动master