S1_搭建分布式OpenStack集群_07 nova服务配置 (计算节点)

一、服务安装(计算节点)
安装软件:
# yum install openstack-nova-compute -y

编辑/etc/nova/nova.conf文件并设置如下内容:
# vim /etc/nova/nova.conf
[DEFAULT]
enabled_apis = osapi_compute,metadata
transport_url = rabbit://openstack:[email protected]
my_ip = 10.10.11.12
use_neutron = True
firewall_driver = nova.virt.firewall.NoopFirewallDriver
[api]
auth_strategy = keystone
[keystone_authtoken]
auth_uri = http://10.10.11.11:5000
auth_url = http://10.10.11.11:35357
memcached_servers = 10.10.11.11:11211
auth_type = password
project_domain_name = default
user_domain_name = default
project_name = service
username = nova
password = nova123
[vnc]
enabled = True
server_listen = 0.0.0.0
server_proxyclient_address = $my_ip
novncproxy_base_url = http://10.10.11.11:6080/vnc_auto.html
[glance]
api_servers = http://10.10.11.11:9292
[oslo_concurrency]
lock_path = /var/lib/nova/tmp
[placement]
os_region_name = RegionOne
project_domain_name = Default
project_name = service
auth_type = password
user_domain_name = Default
auth_url = http://10.10.11.11:35357/v3
username = placement
password = placement123

检测当前计算节点是否支持硬件虚拟化
# egrep -c ‘(vmx|svm)‘ /proc/cpuinfo

我使用的虚拟机,这里返回0,明显我不支持硬件虚拟化
可以编辑/etc/nova/nova.conf文件设置qemu来提供软件虚拟化
# vim /etc/nova/nova.conf
[libvirt]
virt_type = qemu

设置服务的开机自启动,并启动计算服务:
# systemctl enable libvirtd.service openstack-nova-compute.service
# systemctl start  libvirtd.service openstack-nova-compute.service
# systemctl status libvirtd.service openstack-nova-compute.service

二、向cell数据库添加计算节点(控制节点)
添加admin环境变量:
# source admin-openrc

执行下面的命令,查看计算节点信息是否已经在数据库:
# openstack compute service list --service nova-compute

发现计算节点:
# su -s /bin/sh -c "nova-manage cell_v2 discover_hosts --verbose" nova

三、验证可用性(控制节点)
添加admin环境变量:
# source admin-openrc

列出计算服务的运行状态:
# openstack compute service list

列出认证服务的端口:
# openstack catalog list

列出镜像信息,确认能访问镜像服务:
# openstack image list

确认cells和placement api成功运行:
# nova-status upgrade check

原文地址:https://www.cnblogs.com/luwei0915/p/11334504.html

时间: 2024-11-05 12:15:53

S1_搭建分布式OpenStack集群_07 nova服务配置 (计算节点)的相关文章

openstack Q版部署-----nova服务配置-计算节点(6)

一.服务安装 yum install openstack-nova-compute -y 编辑/etc/nova/nova.conf文件并设置如下内容 [DEFAULT] enabled_apis = osapi_compute,metadata transport_url = rabbit://openstack:[email protected] my_ip = 10.1.80.111 use_neutron = True firewall_driver = nova.virt.firewa

S1_搭建分布式OpenStack集群_11 虚拟机创建

一.创建网络环境环境变量生效一下创建一个网络:# openstack network create --share --external \--provider-physical-network phynet1 \--provider-network-type flat flat-test 创建一个子网:openstack subnet create --network flat-test \--allocation-pool start=10.10.12.240,end=10.10.12.25

S1_搭建分布式OpenStack集群_04 keystone认证服务安装配置

一.新建数据库及用户(控制节点)# mysql -uroot -p12345678MariaDB [(none)]> CREATE DATABASE keystone;MariaDB [(none)]> GRANT ALL PRIVILEGES ON keystone.* TO 'keystone'@'localhost' IDENTIFIED BY 'keystone123';MariaDB [(none)]> GRANT ALL PRIVILEGES ON keystone.* TO

使用Docker Swarm搭建分布式爬虫集群

在爬虫开发过程中,你肯定遇到过需要把爬虫部署在多个服务器上面的情况.此时你是怎么操作的呢?逐一SSH登录每个服务器,使用git拉下代码,然后运行?代码修改了,于是又要一个服务器一个服务器登录上去依次更新? 有时候爬虫只需要在一个服务器上面运行,有时候需要在200个服务器上面运行.你是怎么快速切换的呢?一个服务器一个服务器登录上去开关?或者聪明一点,在Redis里面设置一个可以修改的标记,只有标记对应的服务器上面的爬虫运行? A爬虫已经在所有服务器上面部署了,现在又做了一个B爬虫,你是不是又得依次

分布式、集群和微服务相关概念整理(转载)

本来主要内容转载自:http://www.cnblogs.com/xishuai/  集群是个物理形态,分布式是个工作方式,微服务是一种架构风格 分布式:一个业务分拆多个子业务,部署在不同的服务器上 集群:同一个业务,部署在多个服务器上 微服务:是一种架构风格,一个大型复杂软件应用由一个或多个微服务组成.系统中的各个微服务可被独立部署,各个微服务之间是松耦合的.每个微服务仅关注于完成一件任务并很好地完成该任务.在所有情况下,每个任务代表着一个小的业务能力. 1:分布式是指将不同的业务分布在不同的

分布式、集群和微服务概念整理

整理来源于 https://www.cnblogs.com/xishuai/p/6039838.html 集群是个物理形态,分布式是个工作方式. 分布式:一个业务分拆多个子业务,部署在不同的服务器上 集群:同一个业务,部署在多个服务器上 1:分布式是指将不同的业务分布在不同的地方.而集群指的是将几台服务器集中在一起,实现同一业务. 分布式中的每一个节点,都可以做集群.而集群并不一定就是分布式的. 举例:就比如新浪网,访问的人多了,他可以做一个群集,前面放一个响应服务器,后面几台服务器完成同一业务

分布式、集群、微服务的区别

出处:  分布式与集群的区别是什么? 下面就正经解释下三种结构的区别吧- 单机结构 我想大家最最最熟悉的就是单机结构,一个系统业务量很小的时候所有的代码都放在一个项目中就好了,然后这个项目部署在一台服务器上就好了.整个项目所有的服务都由这台服务器提供.这就是单机结构. 那么,单机结构有啥缺点呢?我想缺点是显而易见的,单机的处理能力毕竟是有限的,当你的业务增长到一定程度的时候,单机的硬件资源将无法满足你的业务需求.此时便出现了集群模式,往下接着看. 集群结构 集群模式在程序猿界有各种装逼解释,有的

docker中搭建分布式hadoop集群

1.pull Ubuntu镜像配置Java环境 2.下载hadoop软件包 3.配置JAVA_HOME(hadoop-env.sh.mapred-env.sh.yarn-env.sh) 4.配置core-site.xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://127.17.0.5:8020</value> </property>

分布式实时日志系统(一)环境搭建之 Jstorm 集群搭建过程/Jstorm集群一键安装部署

最近公司业务数据量越来越大,以前的基于消息队列的日志系统越来越难以满足目前的业务量,表现为消息积压,日志延迟,日志存储日期过短,所以,我们开始着手要重新设计这块,业界已经有了比较成熟的流程,即基于流式处理,采用 flume 收集日志,发送到 kafka 队列做缓冲,storm 分布式实时框架进行消费处理,短期数据落地到 hbase.mongo中,长期数据进入 hadoop 中存储. 接下来打算将这其间所遇到的问题.学习到的知识记录整理下,作为备忘,作为分享,带给需要的人. 淘宝开源了许多产品组件