openstack Q版部署-----nova服务配置-计算节点(6)

一、服务安装

yum install openstack-nova-compute -y

编辑/etc/nova/nova.conf文件并设置如下内容

[DEFAULT]
enabled_apis = osapi_compute,metadata
transport_url = rabbit://openstack:[email protected]
my_ip = 10.1.80.111
use_neutron = True
firewall_driver = nova.virt.firewall.NoopFirewallDriver
[api]
auth_strategy = keystone
[keystone_authtoken]
auth_uri = http://10.1.80.110:5000
auth_url = http://10.1.80.110:35357
memcached_servers = 10.1.80.110:11211
auth_type = password
project_domain_name = default
user_domain_name = default
project_name = service
username = nova
password = nova2018
[vnc]
enabled = True
server_listen = 0.0.0.0
server_proxyclient_address = $my_ip
novncproxy_base_url = http://10.1.80.110:6080/vnc_auto.html
[glance]
api_servers = http://10.1.80.110:9292
[oslo_concurrency]
lock_path = /var/lib/nova/tmp
[placement]
os_region_name = RegionOne
project_domain_name = Default
project_name = service
auth_type = password
user_domain_name = Default
auth_url = http://10.1.80.110:35357/v3
username = placement
password = placement2018

检测当前计算节点是否支持硬件虚拟化

egrep -c ‘(vmx|svm)‘ /proc/cpuinfo

我使用的虚拟机,这里返回0,明显我不支持硬件虚拟化

可以编辑/etc/nova/nova.conf文件设置qemu来提供软件虚拟化

[libvirt]
virt_type = qemu

因为我这里使用的vmware虚拟化,我修改了虚拟化配置,使之可以支持硬件虚拟化(所有服务器执行)

exsi5.5以上版本支持虚拟机的二次虚拟化

设置服务的开机自启动,并启动计算服务

systemctl enable libvirtd.service openstack-nova-compute.service
systemctl start libvirtd.service openstack-nova-compute.service
systemctl status libvirtd.service openstack-nova-compute.service

二、(控制节点)向cell数据库添加计算节点 
添加admin环境变量

sh admin-openrc.sh

执行下面的命令,查看计算节点信息是否已经在数据库

openstack compute service list --service nova-compute

发现计算节点

su -s /bin/sh -c "nova-manage cell_v2 discover_hosts --verbose" nova

当您添加新的计算节点时,您可以在控制器节点上运行nova管理cellv2发现主机来注册这些新的计算节点。

su -s /bin/sh -c "nova-manage cell_v2 discover_hosts --verbose" nova

或者,您可以在/etc/nov/nova.conf中设置适当的间隔

[scheduler]
discover_hosts_in_cells_interval = 300

三、验证可用性

添加admin环境变量

sh admin-openrc.sh

列出计算服务的运行状态

openstack compute service list

列出认证服务的端口

openstack catalog list

列出镜像信息,确认能访问镜像服务

openstack image list

确认cells和placement api成功运行

nova-status upgrade check

原文地址:https://www.cnblogs.com/jinyuanliu/p/10311897.html

时间: 2024-08-02 00:51:58

openstack Q版部署-----nova服务配置-计算节点(6)的相关文章

S1_搭建分布式OpenStack集群_07 nova服务配置 (计算节点)

一.服务安装(计算节点)安装软件:# yum install openstack-nova-compute -y 编辑/etc/nova/nova.conf文件并设置如下内容:# vim /etc/nova/nova.conf[DEFAULT]enabled_apis = osapi_compute,metadatatransport_url = rabbit://openstack:[email protected]my_ip = 10.10.11.12use_neutron = Truefi

openstack Q版部署-----网络服务(neutron)安装部署(7)

一.数据库配置 控制节点创建数据库 CREATE DATABASE neutron;GRANT ALL PRIVILEGES ON neutron.* TO 'neutron'@'localhost' IDENTIFIED BY 'neutron2018';GRANT ALL PRIVILEGES ON neutron.* TO 'neutron'@'%' IDENTIFIED BY 'neutron2018'; 二.创建认证信息(控制节点) 先生效一下环境变量 创建neutron用户: ope

openstack Q版部署-----环境搭建(1)

一.环境准备 系统:centos7.2 cinder01 内网:10.1.80.112 compute01   内网:10.1.80.111 controller   内网:10.1.80.110 二.配置主机名及hosts和防火墙(只演示一台,其他机器配置方式一样) vim /etc/hostname加入 10.1.80.110 controller 10.1.80.111 compute01 10.1.80.112 cinder01 修改主机名 hostnamectl set-hostnam

openstack Q版部署-----界面horizon安装(9)

控制节点安装软件包 yum install openstack-dashboard -y [[email protected] ~]# vim /etc/openstack-dashboard/local_settings #按照下面几行进行配置修改 OPENSTACK_HOST = "192.168.1.17"                                 #更改为keystone机器地址 OPENSTACK_KEYSTONE_DEFAULT_ROLE = &quo

OpenStack入门篇(九)之nova服务(控制节点)的部署与测试

1.Nova介绍 Nova是openstack最早的两块模块之一,另一个是对象存储swift.在openstack体系中一个叫做计算节点,一个叫做控制节点.这个主要和nova相关,我们把安装为计算节点成为:nova-compute,把除了nova-compute叫做控制节点.nova-compute是创建虚拟机的,只是创建虚拟机,所有的控制都在另一台上.OpenStack计算组件请求OpenStack Identity服务进行认证:请求OpenStack Image服务提供磁盘镜像:为OpenS

openstack部署安装(Icehouse版本)-计算节点(compute)

在将计算服务(nova)配置在控制器节点上之后,必须将另一个系统配置为计算节点.计算节点接收来自控制器节点的请求并承载虚拟机实例.也可以在单一节点上运行所有服务,但在此次部署时,将计算节点单独部署,使得很容易在规模声场中水平增加额外的计算节点. 5.1 Configure a compute node(安装配置计算节点) 5.1.1 安装compute服务 # yum install openstack-nova-compute 5.1.2 编辑nova配置文件 # openstack-conf

Openstack 网络服务 Neutron计算节点部署(十)

Neutron计算节点部署 安装组件,安装的服务器是192.168.137.12 1.安装软件包 yum install -y openstack-neutron-linuxbridge ebtables ipset 2.配置文件neutron.conf 因为neutron控制节点跟计算节点配置几乎一样,直接复制控制节点的文件到计算节点,将不同的部分进行修改. scp /etc/neutron/neutron.conf [email protected]:/etc/neutron 在neutro

openstack部署(四)-计算节点(Networking)

计算节点增加Networking及配置 安装组件 yum install -y openstack-neutron openstack-neutron-linuxbridge ebtables ipset 配置普通组件  vim /etc/neutron/neutron.conf //更改或增加 [DEFAULT] rpc_backend = rabbit auth_strategy = keystone verbose = True [oslo_messaging_rabbit] rabbit

openstack-mikata之网络服务(计算节点安装部署)

计算节点(10.0.0.31)前期的准备工作已经做好了接下来开始计算节点的部署安装 1.安装相关软件包 2.编辑/etc/neutron/neutron.conf 1)[DEFAULT]配置 "RabbitMQ" 消息队列的连接.配置认证服务访问 2)[oslo_messaging_rabbit]配置 "RabbitMQ" 消息队列的连接 3)[keystone_authtoken]配置认证服务访问 4)[oslo_concurrency]配置锁路径 3.配置网络(