openstack结合glusterfs存储其一(准备工作)

1、机器信息

2、准备工作

2.1、关闭NetworkManager服务

2.2、上传repo文件

2.3、在每个机器上做时间同步

2.4、每台机器上关闭selinux服务、配置防火墙

2.5、每台机器上配置hosts文件

3、部署O+G环境

3.1、每台机器上安装gfs组件

3.2、在YUN21上安装packstack,并部署openstack

3.3、创建gfs卷并挂载

3.4、进入dash,上传镜像,创建网络,修改配额

3.5、创建glance和cinder卷并挂载

4、系统优化

1、机器信息

主机名  网卡   inet addr

YUN21  eth1   10.0.0.21

eth2   192.168.0.121

eth4   20.0.0.21

YUN22  eth2   192.168.0.122

eth3   10.0.0.22

eth7   20.0.0.22

YUN23  eth2   192.168.0.123

eth3   10.0.0.23

eth7   20.0.0.23

YUN24  eth0   192.168.0.124

eth1   10.0.0.24

eth6   20.0.0.24

安装的是桌面版的centos6.5系统

(安装桌面版系统的原因是不同物理机对于硬件的识别需要软件包支持的差异性,例如一种情况就是在联想物理机上安装带有桌面的系统后不需要安装额外的驱动就可以识别安装在物理机上的intel万兆网卡,这是在没有带有桌面系统上不存在的)。

2、准备工作

2.1、关闭NetworkManager服务

如果不关闭的话,都无法PING通其他机器,在最简版的centos系统中不需要考虑这个服务。

每个机器上都做下面操作

# service NetworkManager stop

# chkconfig NetworkManager off

2.2、上传repo文件

每个机器上操作

# yum makecache

2.3、在每个机器上做时间同步

# yum install  -y ntp ntpdate ntp-doc

配置NTP

# vi /etc/ntp.conf

把下面的内容加以注释,使其失效

restrict default kod nomodify notrap nopeer noquery

restrict -6 default kod nomodify notrap nopeer noquery

restrict 127.0.0.1

restrict -6 ::1

server 0.centos.pool.ntp.org iburst

server 1.centos.pool.ntp.org iburst

server 2.centos.pool.ntp.org iburst

server 3.centos.pool.ntp.org iburst

添加一行

server  192.168.0.100

# service ntpd start

# chkconfig ntpd on

# ntpdate -u 192.168.0.124

(IP地址是192.168.0.124的物理机是配置好的NTP服务器端)

2.4、每台机器上关闭selinux服务、配置防火墙

# setenforce 0

# vi /etc/sysconfig/selinux

SELINUX=disabled

# vi /etc/sysconfig/iptables

在ssh规则下添加

-A INPUT -p tcp -m multiport --dports 24007:24047 -j ACCEPT

-A INPUT -p tcp -m tcp --dport 111 -j ACCEPT

-A INPUT -p udp -m udp --dport 111 -j ACCEPT

-A INPUT -p tcp -m multiport --dports 38465:38485 -j ACCEPT

-A INPUT -p tcp -m multiport --dports 49152:49216 -j ACCEPT

-A INPUT -p tcp -m multiport --dports 16509 -j ACCEPT

# service iptables restart

2.5、每台机器上配置hosts文件

# vi /etc/hosts

添加

192.168.0.121      YUN21

192.168.0.122      YUN22

192.168.0.123      YUN23

192.168.0.124      YUN24

原文地址:http://blog.51cto.com/xiaoxiaozhou/2113353

时间: 2024-10-08 22:30:40

openstack结合glusterfs存储其一(准备工作)的相关文章

openstack结合glusterfs存储

1.机器信息 2.准备工作 2.1.关闭NetworkManager服务 2.2.上传repo文件 2.3.在每个机器上做时间同步 2.4.每台机器上关闭selinux服务.配置防火墙 2.5.每台机器上配置hosts文件 3.部署O+G环境 3.1.每台机器上安装gfs组件 3.2.在YUN21上安装packstack,并部署openstack 3.3.创建gfs卷并挂载 3.4.进入dash,上传镜像,创建网络,修改配额 3.5.创建glance和cinder卷并挂载 4.系统优化 1.机器

GlusterFS存储结构原理介绍

一.分布式文件系统 分布式文件系统(Distributed File System)是指文件系统管理的物理存储资源并不直接与本地节点相连,而是分布于计算网络中的一个或者多个节点的计算机上.目前意义上的分布式文件系统大多都是由多个节点计算机构成,结构上是典型的客户机/服务器模式.流行的模式是当客户机需要存储数据时,服务器指引其将数据分散的存储到多个存储节点上,以提供更快的速度,更大的容量及更好的冗余特性. 目前流行的分布式文件系统有许多,如MooseFS.OpenAFS.GoogleFS,具体实现

openstack的临时存储后端

声明: 本博客欢迎转发,但请保留原作者信息! 博客地址:http://blog.csdn.net/halcyonbaby 内容系本人学习.研究和总结,如有雷同,实属荣幸! 目前openstack提供了raw,qcow2,lvm,rbd四种类型的image后端. 所谓后端,即image/临时卷root盘的管理存储方式. 可以看出image在compute上缓存为base,以base创建虚拟机的磁盘,多个虚拟机的磁盘可能共享同一个base. nova/virt/libvirt/imagebacken

openstack-r版(rocky)搭建基于centos7.4 的openstack swift对象存储服务 三

openstack-r版(rocky)搭建基于centos7.4 的openstack swift对象存储服务 一 openstack-r版(rocky)搭建基于centos7.4 的openstack swift对象存储服务 二 openstack-r版(rocky)搭建基于centos7.4 的openstack swift对象存储服务 三 openstack-r版(rocky)搭建基于centos7.4 的openstack swift对象存储服务 四 以下操作在控制节点执行control

k8s使用glusterfs存储报错type ‘features/utime‘

k8s使用glusterfs存储报错type 'features/utime' is not valid or not found on this machine pods报错如下 Events: Type Reason Age From Message ---- ------ ---- ---- ------- Normal Scheduled 5m48s default-scheduler Successfully assigned default/auth-web-1-77f4f7cbcc

GlusterFS 存储

GlusterFS简介: 互联网四大开源分布式文件系统分别是:MooseFS.CEPH.Lustre.GusterFS. GluterFS最早由Gluster公司开发,其目的是开发一个能为客户提供全局命名空间.分布式前端及高达数百PB级别扩展性的分布式文件系统. 相比其他分布式文件系统,GlusterFS具有高扩展性.高可用性.高性能.可横向扩展等特点,并且其没有元数据服务器 的设计,让整个服务没有单点故障的隐患. 常见的分布式文件系统简介: 1.MooseFS MooseFS主要由管理服务器(

GlusterFS 存储结构原理介绍

分布式文件系统分布式文件系统(Distributed File System)是指文件系统管理的物理存储资源并不直接与本地节点相连,而是分布于计算网络中的一个或者多个节点的计算机上.目前意义上的分布式文件系统大多都是由多个节点计算机构成,结构上是典型的客户机/服务器模式.流行的模式是当客户机需要存储数据时,服务器指引其将数据分散的存储到多个存储节点上,以提供更快的速度,更大的容量及更好的冗余特性.目前流行的分布式文件系统有许多,如MooseFS.OpenAFS.GoogleFS,具体实现原理我这

使用Ceph作为OpenStack的后端存储

概述 libvirt配置了librbd的QEMU接口,通过它可以在OpenStack中使用Ceph块存储.Ceph块存储是集群对象,这意味着它比独立的服务器有更好的性能. 在OpenStack中使用Ceph块设备,必须首先安装QEMU,libvirt和OpenStack,下图描述了 OpenStack和Ceph技术层次结构: http://my.oschina.net/JerryBaby/blog/376580 我翻译的官方文档,仅供参考 ^ ^. 系统规划 OpenStack集群: 控制节点:

openstack虚拟机做存储分区问题的解决方案之一

openstack实例存储分区的构建方案 对于在openstack的实例中做存储,不管是做cinder还是swift首先就是要解决分区问题.今天在openstack的实例中构建swift存储是就就遇到这样的问题.对于分区我们可以使用一下的几种方案: 构建共享存储,或者做iscsi存储服务器等 使用实例自带的硬盘进行分区 使用回环设备作为服务器的存储设备 在本地的服务器中构建swift使用openstack的云硬盘将其挂载至所需的实例中.(还未做测试,只是一种方案) 所用的文件系统官方推荐使用xf