puppet安装使用教程(四)--puppet的工作原理及工作过程

在使用任何软件前我们都需要了解其工作原理,否则会给后续使用带来诸多不便。Puppet采用了非常简单的C/S架构,所有数据的交互都通过SSL进行,以保证安全。它的工作流程如图1所示。

图1 Puppet工作流程

1. 客户端Puppetd向Master发起认证请求,或使用带签名的证书。

2. Master告诉Client你是合法的。

3. 客户端Puppetd调用Facter,Facter探测出主机的一些变量,例如主机名、内存大小、IP地址等。Puppetd将这些信息通过SSL连接发送到服务器端。

4. 服务器端的Puppet Master检测客户端的主机名,然后找到manifest对应的node配置,并对该部分内容进行解析。Facter送过来的信息可以作为变量处 理,node牵涉到的代码才解析,其他没牵涉的代码不解析。解析分为几个阶段,首先是语法检查,如果语法错误就报错;如果语法没错,就继续解析,解析的结 果生成一个中间的“伪代码”(catelog),然后把伪代码发给客户端。

5. 客户端接收到“伪代码”,并且执行。

6. 客户端在执行时判断有没有File文件,如果有,则向fileserver发起请求。

7. 客户端判断有没有配置Report,如果已配置,则把执行结果发送给服务器。

8. 服务器端把客户端的执行结果写入日志,并发送给报告系统。

这就是puppet的工作流程。最重要的莫过于puppet-master来管理node的配置文件。

在学习puppet的过程中,资料中会反复提到module,class,resource等关键字。下面我们就来说说他们之间的关系。

module:模块,不同的模块实现不同的功能。

class:可以理解为类,模块是由类组成的,模块中包含一个类或者多个类

resource:资源,我个人理解为时puppet的管理配置文件的最小组成单元,同理,类是由一个或多个资源组成的。这些资源可以是文件(file),用户(user),组(group),服务(service),软件(package)等等。后面的文章我们会继续介绍resource的详细情况。

时间: 2024-08-08 01:28:58

puppet安装使用教程(四)--puppet的工作原理及工作过程的相关文章

CentOS 6.5 分布式文件系统之MogileFS工作原理及实现过程

   MogileFS是一套高效的文件自动备份组件,由Six Apart开发,广泛应用在包括LiveJournal等web2.0站点上.MogileFS由3个部分组成:    第1个部分:是server端,包括mogilefsd和mogstored两个程序.前者即是mogilefsd的tracker,它将一些全局信息保存在数据库里,例如站点domain,class,host等.后者即是存储节点(store node),它其实是个HTTP Daemon,默认侦听在7500端口,接受客户端的文件备份

分布式文件系统之MogileFS工作原理及实现过程

MogileFS是一套高效的文件自动备份组件,由Six Apart开发,广泛应用在包括LiveJournal等web2.0站点上.MogileFS由3个部分组成:   第1个部分:是server端,包括mogilefsd和mogstored两个程序.前者即是mogilefsd的tracker,它将一些全局信息保存在数据库里,例如站点domain,class,host等.后者即是存储节点(store node),它其实是个HTTP Daemon,默认侦听在7500端口,接受客户端的文件备份请求.在

bootloader功能介绍/时钟初始化设置/串口工作原理/内存工作原理/NandFlash工作原理

bootloader功能介绍 初始化开发板上主要硬件(时钟,内存,硬盘), 把操作系统从硬盘拷贝到内存,然后让cpu跳转到内存中执行操作系统. boot阶段 1.关闭影响CPU正常执行的外设 -关闭看门狗(watch dog)   WTCON 0xE2700000 -关闭中断 CPSR I和F位设置为1,关闭,不响应任何中断. 2.初始化时钟 -倍频到1Ghz,为外设分频 *串口驱动 3.初始化内存控制器,DDRAM -验证内存,往里面写一个值,然后再读出来 4.初始化硬盘,nand Flash

puppet安装使用教程(二)

登陆到我们的puppet的master的控制台.(我擦,电脑快扛不住了) http://down.51cto.com/data/1975148   官网文档地址. 软件版本:puppet-enterprise-3.7.1-el-6-x86_64.tar.gz,下载地址:http://pan.baidu.com/s/1ntDSGmH(费了九牛二虎之力下载下来的,昨晚从官网上下载了好几遍,下载下来之后以解压包就错误.今天上班时下的,好的.擦!!) 系统架构: 系统 master端:CentOS re

puppet安装使用教程(一)

最近在学习puppet的安装,配置和使用.就从官网上下载了官方文档来看.因为也是刚开始学习puppet,所以咱看着官网的文档一步一步来.官网文档也下载下来上传到51了. http://down.51cto.com/data/1975148   文档地址. 实验准备: 1,前期准备 1)puppet的客户端节点,puppet的管理对象,各节点之间能够相互通讯 2)所有节点的系统时间误差保持在1分钟之内 3)配置好软件的网络yum源或者本地yum源 4)关闭防火墙,selinux 5)保证所有的节点

简单梳理memcached工作原理/工作流程/优化建议

一.memcached工作原理基本概念:slab,page,chunk.slab,是一个逻辑概念.它是在启动memcached实例的时候预处理好的,每个slab对应一个chunk size,也就是说不同slab有不同的chunk size.具体分配多少个slab由参数 -f (增长因子)和 -n (chunk最小尺寸)决定的.page,可以理解为内存页.大小固定为1m.slab会在存储请求时向系统申请page,并将page按chunk size进行切割.chunk,是保存用户数据的最小单位.用户

DHCP的工作原理和工作中的配置使用

什么是DHCP? DHCP动态主机配置协议.用于向网络中的计算机分配IP地址及一些TCP/IP的信息.DHCP提供了安全,可靠并且简单的TCP/IP网络设置,避免了TCP/IP网络地址的冲突,同时大大降低了工作负担. DHCP监听的端口? 服务器监听的是UDP:67端口,客户端请求的是UDP:68号端口. 实验目的:搭建DHCP服务器实验要求:公司要求将闲置的一台Linux 主机配置为DHCP服务器,以便为局域网内员工的办公用机提供自动分配IP地址的服务,以提高网络管理和维护的效率.需要满足的基

一篇文章教会你理解Scrapy网络爬虫框架的工作原理和数据采集过程

今天小编给大家详细的讲解一下Scrapy爬虫框架,希望对大家的学习有帮助. 1.Scrapy爬虫框架 Scrapy是一个使用Python编程语言编写的爬虫框架,任何人都可以根据自己的需求进行修改,并且使用起来非常的方便.它可以应用在数据采集.数据挖掘.网络异常用户检测.存储数据等方面. Scrapy使用了Twisted异步网络库来处理网络通讯.整体架构大致如下图所示. Scrapy爬虫框架 2.由上图可知Scrapy爬虫框架主要由5个部分组成,分别是:Scrapy Engine(Scrapy引擎

puppet 安装及核心资源注解

-----本文大纲 简介 工作原理 puppet安装及命令解析 puppet资源类型 --------------------- 一.简介 puppet是一种Linux.Unix.windows平台的集中配置管理系统,使用自有的puppet描述语言,可管理配置文件.用户.cron任务.软件包.系统服务等.puppet把这些系统实体称之为资源,puppet的设计目标是简化对这些资源的管理以及妥善处理资源间的依赖关系. puppet采用C/S星状的结构,所有的客户端和一个或几个服务器交互.每个客户端