openstack swift节点安装手册1-节点配置

本文参照官方教程:http://docs.openstack.org/project-install-guide/object-storage/draft/environment-networking.html

我们要设置的swift节点名称为object1,主控节点和proxy节点都是controller。

在controller节点的/etc/hosts文件里写上节点名称和ip地址,必须是能ping通的地址,同理,swift节点的/etc/hosts文件要写上各种地址。

在controller节点上进行以下操作:

source /root/admin-openrc.sh #必须找到该配置文件

创建swift用户:

openstack user create --domain default --password-prompt swift

给swift用户赋予admin角色权限

openstack role add --project service --user swift admin

创建swift服务:

openstack service create --name swift --description "OpenStack Object Storage" object-store

创建endpoints:

openstack endpoint create --region RegionOne object-store public http://controller:8080/v1/AUTH_%\(tenant_id\)s
openstack endpoint create --region RegionOne object-store internal http://controller:8080/v1/AUTH_%\(tenant_id\)s
openstack endpoint create --region RegionOne object-store admin http://controller:8080/v1

安装需要的组件:

yum install openstack-swift-proxy python-swiftclient python-keystoneclient python-keystonemiddleware memcached

下载配置文件:

curl -o /etc/swift/proxy-server.conf https://git.openstack.org/cgit/openstack/swift/plain/etc/proxy-server.conf-sample?h=stable/newton

修改配置文件/etc/swift/proxy-server.conf:

[DEFAULT]
bind_port = 8080
user = swift
swift_dir = /etc/swift
[pipeline:main]
pipeline = catch_errors gatekeeper healthcheck proxy-logging cache container_sync bulk ratelimit authtoken keystoneauth container-quotas account-quotas slo dlo versioned_writes proxy-logging proxy-server
[app:proxy-server]
use = egg:swift#proxy
...
account_autocreate = True
[filter:keystoneauth]
use = egg:swift#keystoneauth
...
operator_roles = admin,user
[filter:authtoken]
paste.filter_factory = keystonemiddleware.auth_token:filter_factory
...
auth_uri = http://controller:5000
auth_url = http://controller:35357
memcached_servers = controller:11211  #这里有时候需要改成127.0.0.1:11211
auth_type = password
project_domain_name = default
user_domain_name = default
project_name = service
username = swift
password = 要设置的swift用户的密码
delay_auth_decision = True
[filter:cache]
use = egg:swift#memcache
...
memcache_servers = controller:11211   #这里有时候需要改成127.0.0.1:11211

接下来在storage节点上操作,也就是swift节点,若节点机器有多个,需要在每台节点机器上都执行
安装依赖组件:

yum install xfsprogs rsync

预先连接几块未格式化的硬盘,不要挂载和格式化,然后执行以下命令,一般为两块到三块

mkfs.xfs /dev/sdb
mkfs.xfs /dev/sdcmkfs.xfs /dev/sdd

创建对应的挂载节点目录:

mkdir -p /srv/node/sdb
mkdir -p /srv/node/sdcmkdir -p /srv/node/sdd

修改以下文件/etc/fstab:

/dev/sdb /srv/node/sdb xfs noatime,nodiratime,nobarrier,logbufs=8 0 2
/dev/sdc /srv/node/sdc xfs noatime,nodiratime,nobarrier,logbufs=8 0 2/dev/sdd /srv/node/sdd xfs noatime,nodiratime,nobarrier,logbufs=8 0 2

挂载盘:

mount /srv/node/sdb
mount /srv/node/sdcmount /srv/node/sdd

修改/etc/rsyncd.conf文件:

uid = swift
gid = swift
log file = /var/log/rsyncd.log
pid file = /var/run/rsyncd.pid
address = storage节点用来与外部访问的地址
[account]
max connections = 2
path = /srv/node/
read only = False
lock file = /var/lock/account.lock
[container]
max connections = 2
path = /srv/node/
read only = False
lock file = /var/lock/container.lock
[object]
max connections = 2
path = /srv/node/
read only = False
lock file = /var/lock/object.lock

创建并重启服务:

systemctl enable rsyncd.service
systemctl start rsyncd.service

以上是针对proxy连接组件的安装配置,接下来是account组件的配置,先安装组件包:

yum install openstack-swift-account openstack-swift-container openstack-swift-object

修改/etc/swift/account-server.conf文件:

[DEFAULT]
...
bind_ip = storage(swift)节点用于外部访问的连接地址
bind_port = 6002
user = swift
swift_dir = /etc/swift
devices = /srv/node
mount_check = True
[pipeline:main]
pipeline = healthcheck recon account-server
[filter:recon]
use = egg:swift#recon
...
recon_cache_path = /var/cache/swift

修改container的配置文件/etc/swift/container-server.conf:

[DEFAULT]
...
bind_ip =storage(swift)节点用于外部访问的连接地址bind_port = 6001user = swift swift_dir = /etc/swift devices = /srv/node mount_check = True
[pipeline:main]
pipeline = healthcheck recon container-server
[filter:recon]
use = egg:swift#recon
...
recon_cache_path = /var/cache/swift

修改object配置文件/etc/swift/object-server.conf:

[DEFAULT]
...
bind_ip =storage(swift)节点用于外部访问的连接地址bind_port = 6000 user = swift swift_dir = /etc/swift devices = /srv/node mount_check = True
[pipeline:main]
pipeline = healthcheck recon object-server
[filter:recon]
use = egg:swift#recon
...
recon_cache_path = /var/cache/swift
recon_lock_path = /var/lock

给节点赋予权限

chown -R swift:swift /srv/nodemkdir -p /var/cache/swiftchown -R root:swift /var/cache/swiftchmod -R 775 /var/cache/swift
 
 
 
 
 
 

 
时间: 2024-10-13 10:12:54

openstack swift节点安装手册1-节点配置的相关文章

openstack swift节点安装手册3-最后的安装配置及验证

以下步骤都在controller节点上执行 1.远程获取/etc/swift/swift.conf文件: curl -o /etc/swift/swift.conf https://git.openstack.org/cgit/openstack/swift/plain/etc/swift.conf-sample?h=stable/newton 2.修改/etc/swift/swift.conf配置文件: [swift-hash] ... swift_hash_path_suffix = HAS

openstack swift节点安装手册2-创建rings

以下步骤需要在controller节点上进行操作: 切换到/etc/swift目录下进行如下操作: 一.创建account ring 1.创建account.builder文件 swift-ring-builder account.builder create 10 3 1 2.把每个节点添加到ring中,命令如下,有几台设备就重复几次,如有多台机器,第二胎机器创建时可以region相同,但zone必须换别的编号 swift-ring-builder account.builder add --

IDM主机上安装融合应用程序配置框架

IDM主机上安装融合应用程序配置框架 安装Oracle融合应用程序>设置>身份和访问管理节点安装融合应用程序配置框架 由于我们使用Oracle VirtualBox虚拟机这一次,我们在Windows主机目录创建阶段,我们需要分享这在Linux Guest OS使用共享文件夹. 注意:如果您正在安装的物理主机上,那么你只需创建目录在/舞台位置. 确保IP和主机名等idmhost设置正确 [email protected] ~ #服务网络重启 让我们从VirtualBox挂载共享目录在Linux上

理解 OpenStack Swift (1):OpenStack + 三节点Swift 集群+ HAProxy + UCARP 安装和配置

本系列文章着重学习和研究OpenStack Swift,包括环境搭建.原理.架构.监控和性能等. (1)OpenStack + 三节点Swift 集群+ HAProxy + UCARP 安装和配置 (2)Swift 原理和架构 (3)Swift 监控 (4)Swift 性能 要实现的系统的效果图: 特点: 使用三个对等物理节点,每个节点上部署所有Swift 服务 使用开源的 UCARP 控制一个 VIP,它会被绑定到三个物理网卡中的一个. 使用开源的 HAProxy 做负载均衡 开启 Swift

Openstack 实战讲解之-----05-控制节点Nova服务安装配置

一.Nova介绍 Nova是openstack最早的两块模块之一,另一个是对象存储swift.在openstack体系中一个叫做计算节点,一个叫做控制节点.这个主要和nova相关,我们把安装为计算节点nova-compute,把除了nova-compute叫做控制节点.nova-compute是创建虚拟机的,只是创建虚拟机,所有的控制都在另一台上. 1.1 功能和特点: 实例生命周期的管理 管理计算资源 网络和认证管理 REST风格的API 异步的一致性通信 Hypervisor透明:支持Xen

Ubuntu 12.04 Openstack Essex 安装(单节点)

这是陈沙克一篇非常好的博文,当时在进行openstack排错的时候,多亏了这篇文章里面有些内容 帮我找到了问题的所在: 原文:http://www.chenshake.com/ubuntu-12-04-openstack-essex-installation-single-node/#Nova-volume =============以下是转载内容========================== 亲自测试,成功! 测试环境: esx5.0 虚拟机环境   修改配置虚拟机配置文件 在esxi

OpenStack 入门学习之三:单节点icehouse网桥的配置

部署完icehouse,安装完实例之后,如果虚拟主机需要和外部进行通信,还需要对宿主机的网桥进行配置 具体配置如下 修改ifcfg-em1的内容为以下内容: DEVICE=em1 ONBOOT=yes DEVICETYPE=ovs TYPE=OVSPort OVS_BRIDGE=br-ex #HWADDR=F8:B1:56:AE:3A:84 #TYPE=Ethernet #UUID=6f49b547-f1f8-4b21-a0fc-68791a5237dd #BOOTPROTO=static #I

五,openstack之nova服务的安装(计算节点)

目录 openstack之nova服务的安装(计算节点) 一,计算节点安装部署nova 1,openstack安装服务的通用步骤 2,安装nova 3,修改nova的相关配置文件 4,确认计算节点是否支持虚拟机硬件加速 5,启动Compute服务及其相关服务,并将其配置为在系统启动时自动启动 6,查看程序启动状态 openstack之nova服务的安装(计算节点) 一,计算节点安装部署nova 1,openstack安装服务的通用步骤 1,创库授权 2,在keystone创建用户,关联角色 3,

mongodb集群安装及延迟节点配置

mongodb集群安装及延迟节点配置 本文主要介绍mongodb安装.副本集模式的配置.mongodb数据库的简单使用及延迟节点搭建和利用延迟节点恢复误删除的数据. 一.系统环境 平台:Centos6.6_x86_64 实验环境:四台主机部署副本集模式集群 主机:192.168.115.21.192.168.115.22.192.168.115.23.192.168.115.24 规划:21为master节点,22为副本节点,23为副本节点,24为延迟节点 目的:完成副本集模式集群的部署 测试延