OpenStack IceHouse 部署 - 4 - 计算节点部署

Nova计算服务(计算节点)

参考

本页内容依照官方安装文档进行,具体参见Configure a compute node(nova service)

前置工作


数据库

由于我们在Nova(计算管理)部署配置中使用了mysql数据库,所以移除本地sqlite数据库

sudo rm /var/lib/nova/nova.sqlite

修改vmlinuz权限

For security reasons, the Linux kernel is not readable by normal users which
restricts hypervisor services such as qemu and libguestfs. For details, see this
bug. To make the current kernel readable, run:

sudo dpkg-statoverride  --update --add root root 0644 /boot/vmlinuz-$(uname -r)

为了以后在内核升级vmlinuz重新生成后还能保持可读状态,创建一个脚本/etc/kernel/postinst.d/statoverride,包含以下内容:

#!/bin/sh
version="$1"
# passing the kernel version is required
[ -z "${version}" ] && exit 0
dpkg-statoverride --update --add root root 0644 /boot/vmlinuz-${version}

修改脚本权限

sudo chmod +x /etc/kernel/postinst.d/statoverride

安装

# apt-get install nova-compute-kvm python-guestfs

配置

涉及的配置文件包含两个:


/etc/nova/nova.conf

配置与controller节点nova服务通信

/etc/nova/nova-compute.conf

配置nova-compute服务,即计算节点的虚拟化方面的配置,比如指定使用扫描虚拟化技术

数据库

编辑/etc/nova/nova.conf,修改[database]小节中的数据库连接字符串(没有则添加)如下:

[database]
connection = mysql://nova:[email protected]/nova

这里假定在控制节点的Nova(计算管理)部署配置时设定的数据库帐号nova的密码为nova_dbpass

keystone对接

编辑/etc/nova/nova.conf,首先配置文件中的[DEFAULT]小节,指定使用keystone作为验证后台:

[DEFAULT]
...
auth_strategy = keystone

然后配置[keystone_authtoken]小节(没有则添加),如下

[keystone_authtoken]
auth_uri = http://controller:5000
auth_host = controller
auth_port = 35357
auth_protocol = http
admin_tenant_name = service
admin_user = nova
admin_password = nova_pass

rabbitmq对接

编辑/etc/nova/nova.conf,在[DEFAULT]节中修改为如下

[DEFAULT]
...
# rpc_backend = rabbit
rabbit_host = controller
rabbit_password = RABBIT_PASS

其中"rpc_backend =
rabbit"为官方配中给出,但是我们在实际配置发现,加入该字段后计算节点的nova服务无法启动,提示找不到"rabbit"模块.因此此处我们将其注释掉,服务仍然可以正常启动.

VNC对接

编辑/etc/nova/nova.conf,修改其中的[DEFAULT]小节,加入以下内容

[DEFAULT]
...
my_ip = 10.14.39.196
vnc_enabled = True
vncserver_listen = 0.0.0.0
vncserver_proxyclient_address = 10.14.39.196
novncproxy_base_url = http://controller:6080/vnc_auto.html

其中10.14.39.196为本计算节点的ip,controller为/etc/hosts文件中控制节点的主机名

glance对接

创建虚拟机时需要把映像从glance服务中获取到计算节点上,所以在/etc/nova/nova.conf文件的[DEFAULT]小节中配置提供glance服务的主机(在我们的部署中由控制节点提供)

[DEFAULT]
...
glance_host = controller

虚拟化技术

需要根据硬件情况决定nova-compute使用的虚拟化技术 通过以下命令检测cpu是否支持硬件虚拟化

$ egrep -c ‘(vmx|svm)‘ /proc/cpuinfo

其中vmx为intel提供的虚拟化技术,svm为amd提供的对应技术[1],如果上述命令输出为0,则该节点硬件不支持硬件虚拟化,需要修改/etc/nova/nova-compute.conf配置文件,指定使用qemu软件模拟

[libvirt]
...
virt_type = qemu

如果输出大于0,则不需要进行配置,nova默认使用kvm技术[2][3]加速

更新服务

为了日后管理方便,在admin的home目录下创建一个脚本文件nova_compute_restart.sh,内如如下:

#! /bin/bash
service nova-compute restart

修改脚本权限

chmod +x nova_compute_restart.sh

执行脚本应用刚刚的配置

sudo ./nova_compute_restart.sh

验证

运行如下命令:

[email protected]:~$ . admin-openrc.sh
[email protected]:~$ sudo nova-manage host list
host zone
controller internal
compute1 nova

在host中可以看到本计算节点(compute1)

Neutron网络服务(计算节点)

参考

本页内容依照官方部署指导[1]进行

前置工作


关闭反向路径过滤

有关linux反向路径过滤参考[2],编辑/etc/sysctl.conf对内核做相应的配置变更如下:

net.ipv4.conf.all.rp_filter=0
net.ipv4.conf.default.rp_filter=0

应用变更

sudo sysctl -p

安装

sudo apt-get install neutron-common neutron-plugin-ml2 neutron-plugin-openvswitch-agent openvswitch-datapath-dkms

注意:Ubuntu installations using Linux kernel version 3.11 or newer do not
require the openvswitch-datapath-dkms package.

配置

涉及的配置文件如下


/etc/neutron/neutron.conf

计算节点的neutron网络服务

/etc/neutron/plugins/ml2/ml2_conf.ini

ml2插件配置

/etc/nova/nova.conf

计算节点的nova服务,因为nova中的虚拟机通信通过neutron提供的网络实现,所以要进行必要的配置,是他们能够协同工作

keystone对接

修改/etc/neutron/neutron.conf配置文件中的[DEFAULT]小节,指定使用keystone作为身份验证后台:

[DEFAULT]
...
auth_strategy = keystone

然后修改(添加)配置文件中的[keystone_authtoken]小节:

[keystone_authtoken]
...
auth_uri = http://controller:5000
auth_host = controller
auth_protocol = http
auth_port = 35357
admin_tenant_name = service
admin_user = neutron
admin_password = neutron_pass

这里假定在Neutron(网络管理)部署配置中配置的neutron服务的keystone帐号的密码为neutron为neutron_pass

rabbitmq对接

在配置文件/etc/neutron/neutron.conf中的[DEFAULT]小节中添加以下内容

[DEFAULT]
...
rpc_backend = neutron.openstack.common.rpc.impl_kombu
rabbit_host = controller
rabbit_password = rabbit123

这里假定控制节点上rabbitmq消息队列服务的默认用户(guest)使用的密码时rabbit123

ml2插件配置


/etc/neutron/neutron.conf

首先修改配置文件中的[DEFAULT]小节中添加以下内容:

[DEFAULT]
...
core_plugin = ml2
service_plugins = router
allow_overlapping_ips = True

/etc/neutron/plugins/ml2/ml2_conf.ini

然后修改ml2专有的配置文件,编辑各个小节的相关字段如下:

[ml2]
...
type_drivers = gre
tenant_network_types = gre
mechanism_drivers = openvswitch

[ml2_type_gre]
...
tunnel_id_ranges = 1:1000

[ovs]
...
local_ip = 10.14.39.196
tunnel_type = gre
enable_tunneling = True

[securitygroup]
...
firewall_driver = neutron.agent.linux.iptables_firewall.OVSHybridIptablesFirewallDriver
enable_security_group = True


其中[ovs]小节中的local_ip为用来作为GRE传输隧道的网络接口所拥有的ip地址,由于实验室中的台式机只有一个网卡,因此我们将使用与管理网络相同的接口作为的GRE隧道所用的网络接口(即计算节点上的eth0,ip=10.14.39.196).

添加桥接接口

添加一个名为br-int(系统默认使用该名,可以修改)的桥接,实际是对计算节点上各个虚拟网络的桥接并且有连接了br-tun隧道桥接,使得其上的流量能够通过GRE隧道到达其他的网络节点[3].

# service openvswitch-switch restart
# ovs-vsctl add-br br-int

这个桥接是openswitch桥接,不是linux bridge.

nova对接

为了使得nova中的虚拟机使用neutron提供的网络服务,必须对计算节点上的nova服务也进行配置.

修改配置文件/etc/nova/nova.conf 中的相关字段如下:

[DEFAULT]
...
network_api_class = nova.network.neutronv2.api.API
neutron_url = http://controller:9696
neutron_auth_strategy = keystone
neutron_admin_tenant_name = service
neutron_admin_username = neutron
neutron_admin_password = neutron_pass
neutron_admin_auth_url = http://controller:35357/v2.0
linuxnet_interface_driver = nova.network.linux_net.LinuxOVSInterfaceDriver
firewall_driver = nova.virt.firewall.NoopFirewallDriver
security_group_api = neutron

这里假定neutron的keystone用户的密码为neutron_pass

更新服务

为了方便管理,在admin用户的home目录下创建一个脚本:neutron_and_vswitch_restart.sh,内容如下:

#! /bin/bash
service openvswitch-switch restart && service neutron-plugin-openvswitch-agent restart

修改脚本权限

chmod +x neutron_and_vswitch_restart.sh

执行脚本以应用刚刚修改的各个配置项:

# ./neutron_and_vswitch_restart.sh
# ./nova_compute_restart.sh

注意:nova_compute_restart.sh为在配置Nova计算服务(计算节点)时创建的脚本

OpenStack IceHouse 部署 - 4 - 计算节点部署,布布扣,bubuko.com

时间: 2024-08-02 19:06:43

OpenStack IceHouse 部署 - 4 - 计算节点部署的相关文章

Openstack 网络服务 Neutron计算节点部署(十)

Neutron计算节点部署 安装组件,安装的服务器是192.168.137.12 1.安装软件包 yum install -y openstack-neutron-linuxbridge ebtables ipset 2.配置文件neutron.conf 因为neutron控制节点跟计算节点配置几乎一样,直接复制控制节点的文件到计算节点,将不同的部分进行修改. scp /etc/neutron/neutron.conf [email protected]:/etc/neutron 在neutro

OpenStack IceHouse 部署 - 5 - 网络节点部署

Neutron网络服务(网络节点) 目录 [隐藏] 1 参考 2 前置工作 2.1 调整内核参数 3 安装 4 配置 4.1 keystone对接 4.2 rabbitmq对接 4.3 metadata服务对接 4.4 ML2插件配置 4.5 L3-agent 4.6 DHCP-agent 5 接口配置 6 服务更新 7 服务验证 8 附加配置 8.1 共享上网 8.1.1 iptables NAT 8.1.2 虚拟路由 参考 由于硬件条件所限并结合实际网络环境,本页并不是完全按照官方给出的指导

openstack中彻底删除计算节点的操作记录

在使用openstack的过程中,我们经常会添加好几台计算节点来部署虚拟机,在后续使用中由于某些原因,一些计算节点出现了问题,需要将这些出了问题的计算节点从openstack的控制节点中踢出去!但是很多时候,在删除计算节点的时候由于删除不彻底而导致了后面使用openstack出现了诸多问题. 下面记录了在openstack中彻底删除计算节点linux-node2.openstack的操作: 在控制节点上操作 查看计算节点 [[email protected] src]# openstack ho

openstack icehouse系列之网络节点搭建

我们接着上一篇博文openstack icehouse系列之控制节点搭建继续往下开始搭建下面是环境介绍. 网络节点:ml2.openvswitch.DHCP.l3.metadata 控制节点:mysql.keystone.glance.nova.neutron.dashboard.cinder 计算节点:nova-compute.qemu-kvm.openvswitch.ml2 keystone:验证 glance:镜像 nova:计算 neutron:网络 Network setup (网络节

openstack Juno系列之计算节点搭建

openstack Juno系列之计算节点搭建 nova-compute安装配置 -------------------- apt-get install nova-compute sysfsutils 编辑配置文件 vi /etc/nova/nova.conf [DEFAULT] verbose = True rpc_backend = rabbit rabbit_host = controller rabbit_password = RABBIT_PASS auth_strategy = k

openstack云计算(二):Openstack rocky 部署三 nova计算节点部署

Openstack 云计算(二): Openstack Rocky部署三 nova 部署与验证 (计算节点) 标签(空格分隔): openstack系列 一:nova计算节点初始化 二:nova 计算节点配置 一: nova计算节点初始化 1.1 配置主机名 login: 10.0.0.31 cat /etc/hosts --- 10.0.0.11 controller 10.0.0.31 computer1 10.0.0.41 block1 10.0.0.51 object1 10.0.0.5

CentOS 7部署OpenStack(5)—部署Nova计算节点

安装基础环境 [[email protected] ~]# yum install -y http://dl.fedoraproject.org/pub/epel/7/x86_64/e/epel-release-7-5.noarch.rpm [[email protected] ~]# yum install -y centos-release-openstack-liberty [[email protected] ~]# yum install -y python-openstackclie

CentOS 7部署OpenStack(7)—部署Newtron(计算节点)

首先非常抱歉,最近一直比较忙没有更新. 安装neutron [[email protected] ~]# yum install -y openstack-neutronopenstack-neutron-linuxbridge ebtables ipset 配置neutron 控制节点和计算节点的配置一样,可以直接从控制节点拷贝. [[email protected] ~]# scp /etc/neutron/neutron.conf 192.168.1.12:/etc/neutron/ [[

openstack-mitaka之计算服务管理安装配置部署(计算节点安装部署)

对于计算服务,计算节点在配置以前,需要做如下操作 1.修改hosts文件 2.关闭Linux防火墙,firewalld.SELINUX服务,并将iptables.firewalld设置开机关闭 3.安装相应的软件包,并做时间同步 4.开始安装计算服务所需的软件包 5.编辑相关的配置文件/etc/nova/nova.conf 1)在[DEFAULT]设置rabbitMQ消息连接.配置认证服务访问.配置my_ip.配置neutron以及使用驱动: 2)在[oslo_messaging_rabbit]