openstack核心组件——nova计算服务(7)

云计算openstack核心组件——nova计算服务(7)

 

一、nova介绍:

      Nova 是 OpenStack 最核心的服务,负责维护和管理云环境的计算资源。OpenStack 作为 IaaS 的云操作系统,虚拟机生命周期管理也就是通过 Nova 来实现的。
 
用途与功能 :
1) 实例生命周期管理
2) 管理计算资源
3) 网络和认证管理
4)REST 风格的 API
5) 异步的一致性通信
6)Hypervisor 透明:支持Xen,XenServer/XCP,KVM, UML, VMware vSphere and Hyper-V
 
openstack核心组件——nova计算服务(7)
 
在上图中可以看到,Nova 处于 Openstak 架构的中心,其他组件都为 Nova 提供支持: Glance 为 VM 提供 image Cinder 和 Swift 分别为 VM 提供块存储和对象存储 Neutron 为 VM 提供网络连接。
 
Nova 架构如下:
 
openstack核心组件——nova计算服务(7)
Nova 的架构比较复杂,包含很多组件。 这些组件以子服务(后台 deamon 进程)的形式运行,可以分为以下几类:
 
API
 
nova-api
是整个 Nova 组件的门户,接收和响应客户的 API 调用。所有对 Nova 的请求都首先由 nova-api 处理。nova-api 向外界暴露若干 HTTP REST API 接口 在 keystone 中我们可以查询 nova-api 的 endponits。
openstack核心组件——nova计算服务(7)
客户端就可以将请求发送到 endponits 指定的地址,向 nova-api 请求操作。 当然,作为最终用户的我们不会直接发送 Rest AP I请求。 OpenStack CLI,Dashboard 和其他需要跟 Nova 交换的组件会使用这些 API。
 
Nova-api 对接收到的 HTTP API 请求会做如下处理:
1. 检查客户端传入的参数是否合法有效
2. 调用 Nova 其他子服务的处理客户端 HTTP 请求
3. 格式化 Nova 其他子服务返回的结果并返回给客户端
 
nova-api 接收哪些请求?
简单的说,只要是跟虚拟机生命周期相关的操作,nova-api 都可以响应。 大部分操作都可以在 Dashboard 上找到。打开Instance管理界面
openstack核心组件——nova计算服务(7)
除了提供 OpenStack 自己的API,nova-api 还支持 Amazon EC2 API。 也就是说,如果客户以前使用 Amazon EC2,并且用 EC2 的 API 开发了些工具来管理虚机,那么如果现在要换成 OpenStack,这些工具可以无缝迁移到 OpenStack,因为 nova-api 兼容 EC2 API,无需做任何修改。
 
Compute Core
 
a)nova-scheduler:
虚机调度服务,负责决定在哪个计算节点上运行虚机。创建 Instance 时,用户会提出资源需求,例如 CPU、内存、磁盘各需要多少。OpenStack 将这些需求定义在 flavor 中,用户只需要指定用哪个 flavor 就可以了。
openstack核心组件——nova计算服务(7)
可用的 flavor 在 System->Flavors 中管理。
openstack核心组件——nova计算服务(7)
 
下面介绍 nova-scheduler 是如何实现调度的。在 /etc/nova/nova.conf 中,nova 通过 driver=filter_scheduler 这个参数来配置 nova-scheduler。
driver=filter_scheduler
 
Filter scheduler
Filter scheduler 是 nova-scheduler 默认的调度器,调度过程分为两步:
1. 通过过滤器(filter)选择满足条件的计算节点(运行 nova-compute)
2. 通过权重计算(weighting)选择在最优(权重值最大)的计算节点上创建 Instance。
 
Nova 允许使用第三方 scheduler,配置 scheduler_driver 即可。 这又一次体现了OpenStack的开放性。Scheduler 可以使用多个 filter 依次进行过滤,过滤之后的节点再通过计算权重选出最适合的节点。
openstack核心组件——nova计算服务(7)
上图是调度过程的一个示例:
1. 最开始有 6 个计算节点 Host1-Host6
2. 通过多个 filter 层层过滤,Host2 和 Host4 没有通过,被刷掉了
3. Host1,Host3,Host5,Host6 计算权重,结果 Host5 得分最高,最终入选
 
当 Filter scheduler 需要执行调度操作时,会让 filter 对计算节点进行判断,filter 返回 True 或 False。经过前面一堆 filter 的过滤,nova-scheduler 选出了能够部署 instance 的计算节点。
 
如果有多个计算节点通过了过滤,那么最终选择哪个节点呢?
 
Scheduler 会对每个计算节点打分,得分最高的获胜。 打分的过程就是 weight,翻译过来就是计算权重值,那么 scheduler 是根据什么来计算权重值呢? 
 
目前 nova-scheduler 的默认实现是根据计算节点空闲的内存量计算权重值: 空闲内存越多,权重越大,instance 将被部署到当前空闲内存最多的计算节点上。
 
 
b)nova-compute:
nova-compute 是管理虚机的核心服务,在计算节点上运行。通过调用Hypervisor API实现节点上的 instance的生命周期管理。 OpenStack 对 instance 的操作,最后都是交给 nova-compute 来完成的。 nova-compute 与 Hypervisor 一起实现 OpenStack 对 instance 生命周期的管理。
Openstack中虚机默认的保存路径在:/var/lib/nova/instances
 
通过Driver架构支持多种Hypervisor
Hypervisor是计算节点上跑的虚拟化管理程序,虚机管理最底层的程序。 不同虚拟化技术提供自己的 Hypervisor。 常用的 Hypervisor 有 KVM,Xen, VMWare 等。nova-compute 为这些 Hypervisor 定义了统一的接口,Hypervisor 只需要实现这些接口,就可以 Driver 的形式即插即用到 OpenStack 系统中。 下面是Nova Driver的架构示意图:
openstack核心组件——nova计算服务(7)
 
 
 
c)nova-conductor:
nova-compute 经常需要更新数据库,比如更新和获取虚机的状态。 出于安全性和伸缩性的考虑,nova-compute 并不会直接访问数据库,而是将这个任务委托给 nova-conductor。
openstack核心组件——nova计算服务(7)
这样做有两个显著好处:
1. 更高的系统安全性
2. 更好的系统伸缩性
 
 
Console Interface
 
nova-console: 用户可以通过多种方式访问虚机的控制台:
nova-novncproxy: 基于 Web 浏览器的 VNC 访问
nova-spicehtml5proxy: 基于 HTML5 浏览器的 SPICE 访问
nova-xvpnvncproxy: 基于 Java 客户端的 VNC 访问
nova-consoleauth: 负责对访问虚机控制台请求提供 Token 认证
nova-cert: 提供 x509 证书支持
 
Database
 
Nova 会有一些数据需要存放到数据库中,一般使用 MySQL。数据库安装在控制节点上。 Nova 使用命名为 “nova” 的数据库。
 
openstack核心组件——nova计算服务(7)
 
Message Queue
在前面我们了解到 Nova 包含众多的子服务,这些子服务之间需要相互协调和通信。为解耦各个子服务,Nova 通过 Message Queue 作为子服务的信息中转站。 所以在架构图上我们看到了子服务之间没有直接的连线,是通过 Message Queue 联系的。
 
openstack核心组件——nova计算服务(7)
 
OpenStack 默认是用 RabbitMQ 作为 Message Queue。 MQ 是 OpenStack 的核心基础组件,我们后面也会详细介绍。
 
 
二、Nova 组件如何协同工作
 
Nova 物理部署方案                                                                                       
 
       前面大家已经看到 Nova 由很多子服务组成,我们也知道 OpenStack 是一个分布式系统,可以部署到若干节点上,那么接下来大家可能就会问:Nova 的这些服务在物理上应该如何部署呢?
 
对于 Nova,这些服务会部署在两类节点上:计算节点和控制节点。
 
计算节点上安装了 Hypervisor,上面运行虚拟机。 由此可知:
1. 只有 nova-compute 需要放在计算节点上。
2. 其他子服务则是放在控制节点上的。
 
下面我们可以看看实验环境的具体部署情况。 通过在计算节点和控制节点上运行
ps -elf | grep nova 来查看运行的 nova 子服务
计算节点compute只运行了nova-compute子服务
openstack核心组件——nova计算服务(7)
 
控制节点controller运行了若干nova-*子服务
openstack核心组件——nova计算服务(7)
 
RabbitMQ 和 MySQL 也是放在控制节点上的。可能细心的同学已经发现我们的控制节点上也运行了 nova-compute。 这实际上也就意味着 devstack-controller 既是一个控制节点,同时也是一个计算节点,也可以在上面运行虚机。
openstack核心组件——nova计算服务(7)
openstack核心组件——nova计算服务(7)
 
这也向我们展示了 OpenStack 这种分布式架构部署上的灵活性: 可以将所有服务都放在一台物理机上,作为一个 All-in-One 的测试环境; 也可以将服务部署在多台物理机上,获得更好的性能和高可用。
 
另外,也可以用 nova service-list 查看 nova-* 子服务都分布在哪些节点上
openstack核心组件——nova计算服务(7)
 
 
从虚机创建流程看 nova-* 子服务如何协同工作                                    
      
     从学习 Nova 的角度看,虚机创建是一个非常好的场景,涉及的 nova-* 子服务很全,下面是流程图。
openstack核心组件——nova计算服务(7)
 
  1. 客户(可以是 OpenStack 最终用户,也可以是其他程序)向 API(nova-api)发送请求:“帮我创建一个虚机”
     
  2. API 对请求做一些必要处理后,向 Messaging(RabbitMQ)发送了一条消息:“让 Scheduler 创建一个虚机”
     
  3. Scheduler(nova-scheduler)从 Messaging 获取到 API 发给它的消息,然后执行调度算法,从若干计算节点中选出节点 A
     
  4. Scheduler 向 Messaging 发送了一条消息:“在计算节点 A 上创建这个虚机”
     
  5. 计算节点 A 的 Compute(nova-compute)从 Messaging 中获取到 Scheduler 发给它的消息,然后在本节点的 Hypervisor 上启动虚机。
     
  6. 在虚机创建的过程中,Compute 如果需要查询或更新数据库信息,会通过 Messaging 向 Conductor(nova-conductor)发送消息,Conductor 负责数据库访问。
     
以上是创建虚机最核心的步骤, 这几个步骤向我们展示了 nova-* 子服务之间的协作的方式,也体现了 OpenStack 整个系统的分布式设计思想,掌握这种思想对我们深入理解 OpenStack 会非常有帮助。
 
三、Nova 创建虚拟机详细过程
 
 
openstack核心组件——nova计算服务(7)

1、界面或命令行通过RESTful API向keystone获取认证信息。

2、keystone通过用户请求认证信息,并生成auth-token返回给对应的认证请求。

3、界面或命令行通过RESTful API向nova-api发送一个boot instance的请求(携带auth-token)。

4、nova-api接受请求后向keystone发送认证请求,查看token是否为有效用户和token。

5、keystone验证token是否有效,如有效则返回有效的认证和对应的角色(注:有些操作需要有角色权限才能操作)。

6、通过认证后nova-api和数据库通讯。

7、初始化新建虚拟机的数据库记录。

8、nova-api通过rpc.call向nova-scheduler请求是否有创建虚拟机的资源(Host ID)。

9、nova-scheduler进程侦听消息队列,获取nova-api的请求。

10、nova-scheduler通过查询nova数据库中计算资源的情况,并通过调度算法计算符合虚拟机创建需要的主机。

11、对于有符合虚拟机创建的主机,nova-scheduler更新数据库中虚拟机对应的物理主机信息。

12、nova-scheduler通过rpc.cast向nova-compute发送对应的创建虚拟机请求的消息。

13、nova-compute会从对应的消息队列中获取创建虚拟机请求的消息。

14、nova-compute通过rpc.call向nova-conductor请求获取虚拟机消息。(Flavor)

15、nova-conductor从消息队队列中拿到nova-compute请求消息。

16、nova-conductor根据消息查询虚拟机对应的信息。

17、nova-conductor从数据库中获得虚拟机对应信息。

18、nova-conductor把虚拟机信息通过消息的方式发送到消息队列中。

19、nova-compute从对应的消息队列中获取虚拟机信息消息。

20、nova-compute通过keystone的RESTfull API拿到认证的token,并通过HTTP请求glance-api获取创建虚拟机所需要镜像。

21、glance-api向keystone认证token是否有效,并返回验证结果。

22、token验证通过,nova-compute获得虚拟机镜像信息(URL)。

23、nova-compute通过keystone的RESTfull API拿到认证k的token,并通过HTTP请求neutron-server获取创建虚拟机所需要的网络信息。

24、neutron-server向keystone认证token是否有效,并返回验证结果。

25、token验证通过,nova-compute获得虚拟机网络信息。

26、nova-compute通过keystone的RESTfull API拿到认证的token,并通过HTTP请求cinder-api获取创建虚拟机所需要的持久化存储信息。

27、cinder-api向keystone认证token是否有效,并返回验证结果。

28、token验证通过,nova-compute获得虚拟机持久化存储信息。

29、nova-compute根据instance的信息调用配置的虚拟化驱动来创建虚拟机。

四、彻底删除nova-compute节点

1、控制节点上操作查看计算节点,删除node1

1
2
openstack host list
nova service-list

openstack核心组件——nova计算服务(7)

2、将node1上的计算服务设置为down,然后disabled

1
2
systemctl stop openstack-nova-compute
nova service-list

openstack核心组件——nova计算服务(7)

1
2
nova service-disable node1 nova-compute
nova service-list

openstack核心组件——nova计算服务(7)

3、在数据库里清理(nova库)

(1)参看现在数据库状态

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
[root@node1 ~]# mysql -u root -p
Enter password:
Welcome to the MariaDB monitor.  Commands end with ; or \g.
Your MariaDB connection id is 90
Server version: 10.1.20-MariaDB MariaDB Server
 
Copyright (c) 2000, 2016, Oracle, MariaDB Corporation Ab and others.
 
Type 'help;' or '\h' for help. Type '\c' to clear the current input statement.
 
MariaDB [(none)]> use nova;
Reading table information for completion of table and column names
You can turn off this feature to get a quicker startup with -A
 
Database changed
MariaDB [nova]> select host from nova.services;
+---------+
| host    |
+---------+
| 0.0.0.0 |
| 0.0.0.0 |
| node1   |
| node1   |
| node1   |
| node1   |
| node2   |
+---------+
7 rows in set (0.00 sec)
 
MariaDB [nova]> select hypervisor_hostname from compute_nodes;
+---------------------+
| hypervisor_hostname |
+---------------------+
| node1               |
| node2               |
+---------------------+
2 rows in set (0.00 sec)

(2)删除数据库中的node1节点信息

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
MariaDB [nova]> delete from nova.services where host="node1";
Query OK, 4 rows affected (0.01 sec)
 
MariaDB [nova]> delete from compute_nodes where hypervisor_hostname="node1";
Query OK, 1 row affected (0.00 sec)
 
MariaDB [nova]>
MariaDB [nova]>
MariaDB [nova]>
MariaDB [nova]> select host from nova.services;
+---------+
| host    |
+---------+
| 0.0.0.0 |
| 0.0.0.0 |
| node2   |
+---------+
3 rows in set (0.00 sec)
 
MariaDB [nova]> select hypervisor_hostname from compute_nodes;
+---------------------+
| hypervisor_hostname |
+---------------------+
| node2               |
+---------------------+
1 row in set (0.00 sec)
 
MariaDB [nova]>
 
五、nova配置文件:
 
[DEFAULT]
my_ip=172.16.254.63
use_neutron = True
firewall_driver = nova.virt.firewall.NoopFirewallDriver
enabled_apis=osapi_compute,metadata
transport_url = rabbit://openstack:admin@controller [api]
auth_strategy = keystone [api_database]
connection = mysql+pymysql://nova:NOVA_DBPASS@controller/nova_api [barbican] [cache] [cells] [cinder]
os_region_name = RegionOne [cloudpipe] [conductor] [console] [consoleauth] [cors] [cors.subdomain] [crypto] [database]
connection = mysql+pymysql://nova:NOVA_DBPASS@controller/nova [ephemeral_storage_encryption] [filter_scheduler] [glance]
api_servers = http://controller:9292 [guestfs] [healthcheck] [hyperv] [image_file_url] [ironic] [key_manager] [keystone_authtoken]
auth_uri = http://controller:5000
auth_url = http://controller:35357
memcached_servers = controller:
auth_type = password
project_domain_name = default
user_domain_name = default
project_name = service
username = nova
password = nova [libvirt]
virt_type=qemu [matchmaker_redis] [metrics] [mks] [neutron]
url = http://controller:9696
auth_url = http://controller:35357
auth_type = password
project_domain_name = default
user_domain_name = default
region_name = RegionOne
project_name = service
username = neutron
password = neutron
service_metadata_proxy = true
metadata_proxy_shared_secret = METADATA_SECRET [notifications] [osapi_v21] [oslo_concurrency]
lock_path=/var/lib/nova/tmp [oslo_messaging_amqp] [oslo_messaging_kafka] [oslo_messaging_notifications] [oslo_messaging_rabbit] [oslo_messaging_zmq] [oslo_middleware] [oslo_policy] [pci]
[placement]
os_region_name = RegionOne
auth_type = password
auth_url = http://controller:35357/v3
project_name = service
project_domain_name = Default
username = placement
password = placement
user_domain_name = Default [quota] [rdp] [remote_debug] [scheduler] [serial_console] [service_user] [spice] [ssl] [trusted_computing] [upgrade_levels] [vendordata_dynamic_auth] [vmware] [vnc]
enabled=true
vncserver_listen=$my_ip
vncserver_proxyclient_address=$my_ip
novncproxy_base_url = http://172.16.254.63:6080/vnc_auto.html [workarounds] [wsgi] [xenserver] [xvp]

nova组件:

1 nova-api

2 nova-scheduler(调度服务)包括过滤器(filter)权重计算(weighting

3 Nova compute nova-compute 是管理虚机的核心服务

4 nova-conductor

循检准备工作

source openrc 开启云计算

共享服务循检工作

1 查看数据库

systemctl status mariadb.service

2 查看缓存

systemctl status memcache.service

3 查看消息队列

systemctl status rabbitmq-server.service

4 查看rabbitmq应用服务的状态

rabbitmqctl cluster_status

5 查看http

systemctl status httpd

6 启动不了,拍错方式error faild

方法1 journalctl -ex

方法2 cd /var/log/httpd/

[root@node1 ~]# cd /var/log/httpd/

[root@node1 httpd]# ls

access_log error_log error_log-20190701 error_log-20190802 keystone.log

access_log-20190622 error_log-20190622 error_log-20190711 keystone_access.lo

查看报错日志

vim error_log

/error 进行查询

7 nova service-list 如果关闭开启

web界面

8 kvm下虚拟机的保存路径

/var/lib/libvirt/images/

9 openstack下虚拟机默认保存路径排错用到

/var/lib/nova/installces/

Nova list

Nova show Id 查看机器的具体信息

kvm命令查看虚拟机

virsh list --all

virsh edit 名称查看

nova(控制节点 node1)部署工作

source openrc

1 node1 mysql -uroot -p123

2 创建三种库

MariaDB [(none)]> CREATE DATABASE nova_api; MariaDB [(none)]> CREATE DATABASE nova; MariaDB [(none)]> CREATE DATABASE nova_cell0;

3 3种库创建两种登录方式

MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_api.* TO 'nova'@'localhost' \ IDENTIFIED BY 'NOVA_DBPASS'; MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_api.* TO 'nova'@'%' \ IDENTIFIED BY 'NOVA_DBPASS'; MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'localhost' \ IDENTIFIED BY 'NOVA_DBPASS'; MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'%' \ IDENTIFIED BY 'NOVA_DBPASS'; MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_cell0.* TO 'nova'@'localhost' \ IDENTIFIED BY 'NOVA_DBPASS'; MariaDB [(none)]> GRANT ALL PRIVILEGES ON nova_cell0.* TO 'nova'@'%' \ IDENTIFIED BY 'NOVA_DBPASS';

4 创建一个nova用户密码为 nova default中的域

openstack user create --domin default --password=nova nova

5 service的项目里面设置nova的用户 admin的角色

openstack role add --project service --user nova admin

6 创建一个nova的计算服务

openstack service create --name nova \

--description "openstack compute" compute

检查创建的服务

openstack service list

7 服务的三种模式的地址发出去宣告端点

openstack endpoint create --region RegionOne \ compute public http://node1:8774/v2.1

openstack endpoint create --region RegionOne \ compute internal http://node1:8774/v2.1

openstack endpoint create --region RegionOne \ compute admin http://node1:8774/v2.1

openstack endpoint list | grep nova

8 创建 placement 追踪每个节点的资源使用情况

openstack user create --demain default -- password=placement placement (密码账户)

openstack role add --project service --user placement admin

openstack service create --name lacement --description "placement API" placement

9 服务的三种模式的地址发出去宣告端点

openstack endpoint create --region RegionOne \ placement public http://node1:8778/v2.1

openstack endpoint create --region RegionOne \ placement internal http://node1:8778/v2.1

openstack endpoint create --region RegionOne \ placement admin http://node1:8778/v2.1

10 node1 节点安装nova 6软件包

yum install openstack-nova-api openstack-nova-conductor \ openstack-nova-console openstack-nova-novncproxy \ openstack-nova-scheduler openstack-nova-placement-api

11 修改配置文件

cd /etc/nova 切换到配置文件

ls

copy nova.conf nova.conf.beifen 进行备份

ll 查看属主属组

vim nova.conf 之前的内容全部删除

复制本章最下面的配置文件内容 然后修改

[DEFAULT] 修改内容

enabled_apis = osapi_compute,metadata

transport_url = rabbit://openstack:RABBIT_PASS@node1

my_ip = 192.168.194.6 当前节点ip use_neutron = True firewall_driver = nova.virt.firewall.NoopFirewallDriver

[api_database] 修改内容

connection = mysql+pymysql://nova:NOVA_DBPASS@node1/nova_api

[database] 修改内容 connection = mysql+pymysql://nova:NOVA_DBPASS@node1/nova

[api] 修改内容

auth_strategy = keystone

[keystone_authtoken] 修改内容

auth_uri = http://node1:5000 auth_url = http://node1:35357 memcached_servers = node1:11211 auth_type = password project_domain_name = default user_domain_name = default project_name = service username = nova password =nova

[vnc] 修改内容 enabled = true vncserver_listen = $my_ip vncserver_proxyclient_address = $my_ip

[glance] 修改内容

api_servers = http://node1:9292

[oslo_concurrency] 修改内容

lock_path = /var/lib/nova/tmp

[placement] 修改内容

os_region_name = RegionOne project_domain_name = Default project_name = service auth_type = password user_domain_name = Default auth_url = http://node1:35357/v3 username = placement password = placement

12 继续修改配置文件

vim /etc/httpd/conf.d/00-nova-placement-api.conf

添加下面内容到文件最后面

<Directory /usr/bin> <IfVersion >= 2.4> Require all granted </IfVersion> <IfVersion < 2.4> Order allow,deny Allow from all </IfVersion> </Directory>

12 启动http服务

systemctl restart httpd

13 倒库

su -s /bin/sh -c "nova-manage api_db sync" nova

su -s /bin/sh -c "nova-manage cell_v2 map_cell0" nova

su -s /bin/sh -c "nova-manage cell_v2 create_cell --name=cell1 --verbose" nova

su -s /bin/sh -c "nova-manage db sync" nova

14 查看cells列表

nova-manage cell_v2 list_cells

15 开启nova服务

systemctl start openstack-nova-api.service \ openstack-nova-consoleauth.service openstack-nova-scheduler.service \ openstack-nova-conductor.service openstack-nova-novncproxy.service

systemctl enable openstack-nova-api.service \ openstack-nova-consoleauth.service openstack-nova-scheduler.service \ openstack-nova-conductor.service openstack-nova-novncproxy.service

验证服务开启查看状态

systemctl statusopenstack-nova-api.service \ openstack-nova-consoleauth.service openstack-nova-scheduler.service \ openstack-nova-conductor.service openstack-nova-novncproxy.service

nova(计算节点 node2)部署工作

1 检查源

2 下载计算节点软件包

yum install openstack-nova-compute -y

3 下载失败解决依赖如果正常进入下一步

node1上面执行

cd /openstack-ocata

ls

cirros-0.3.3-x86_64-disk.img openstack-compute-yilai

复制依赖发送node2

scp -r openstack-compute-ylai node2/root/

node2上面执行

ls

cd openstack-compute-yilai /

yum localinstall -y ./*

下载计算节点

yum install openstack-nova-compute -y

4 修改配置文件之前的全部删除

node1有几处不一样的地方修改

复制本章最下面的配置文件内容 然后修改 多余的注释掉

[DEFAULT] 修改内容

enabled_apis = osapi_compute,metadata

transport_url = rabbit://openstack:RABBIT_PASS@node1

my_ip = 192.168.194.7 当前节点ip use_neutron = True firewall_driver = nova.virt.firewall.NoopFirewallDriver

[api] 修改内容

auth_strategy = keystone

[keystone_authtoken] 修改内容

auth_uri = http://node1:5000 auth_url = http://node1:35357 memcached_servers = node1:11211 auth_type = password project_domain_name = default user_domain_name = default project_name = service username = nova password =nova

[vnc] 修改内容 enabled = true vncserver_listen = 0.0.0.0 监听所有 vncserver_proxyclient_address = $my_ip

novncproxy_base_url = http://node1:6080/vnc_auto.html

[glance] 修改内容

api_servers = http://node1:9292

[oslo_concurrency] 修改内容

lock_path = /var/lib/nova/tmp

[placement] 修改内容

os_region_name = RegionOne project_domain_name = Default project_name = service auth_type = password user_domain_name = Default auth_url = http://node1:35357/v3 username = placement password = placement

[libvirt] 修改内容

virt_type = qemu

查看虚拟端口是否打开

egrep -c '(vmx|svm)' /proc/cpuinfo

5 node1控制节点查看nova部署的两种方法

nova service-list

openstack compute service list

6 node2开启compute服务

libvirtd.service 作为kvm的虚拟化服务需要开启

systemctl start libvirtd.service openstack-nova-compute.service

systemctl enable libvirtd.service openstack-nova-compute.service

7 node1控制节点查看nova部署

openstack compute service list

openstack catalog list

关闭服务

systemctl stop openstack-nova-compute

8 虚拟化管理层显示

openstack hypervisor list

把node2的信息写入数据库 否则启动虚拟机 启不了这个节点

su -s /bin/sh -c "nova-manage cell_v2 discover_hosts --verbose" nova openstack image list 镜像列表

nova-status upgrade check

第1台控制节点 第 2 3 台计算节点 设置之前解决依赖

上一篇:【MVC】ASP.NET MVC 请求生命周期


下一篇:[STL]heap和priority_queue