6g下载网
当前位置: 主页 > 软件教程 > 云计算 >

OpenStack计算节点要注意哪些问题?OpenStack计算节点部署教程

时间: 2016-12-27 17:34 来源: 本站整理

分享到:

OpenStack计算节点要注意哪些问题?今天小编整理一篇OpenStack计算节点部署教程的文章和大家分享,希望能给大家提供帮助。

计算节点构成OpenStack计算云的资源核心,提供运行实例的处理,内存,网络和存储资源。

CPU选择

计算节点中的CPU类型是非常重要的选择。 首先,确保CPU通过VT-x(用于Intel芯片)和AMD-v(用于AMD)芯片支持虚拟化。 CPU的核心数量也会影响决策。 目前的CPU最多有12个内核。 此外,如果Intel CPU支持超线程,那么这12个内核会加倍到24个内核。 如果您购买了支持多个CPU的服务器,则核心数进一步增加。

多线程注意事项

超线程是英特尔专有的同步多线程实现,用于提高CPU的并行性。 您可以考虑启用超线程以提高多线程应用程序的性能。

是否应该在CPU上启用超线程取决于您的用例。 例如,禁用超线程在密集计算环境中可能是有益的。 我们建议您使用您的本地工作负载进行性能测试,同时启用和禁用超线程,以确定在您的情况下什么更合适。

Hypervisor选择

Hypervisor提供软件来管理虚拟机对底层硬件的访问。 Hypervisor创建,管理和监视虚拟机。 OpenStack计算支持多种程度的Hypervisor,包括: KVM LXC QEMU VMware ESX / ESXi Xen Hyper-V Docker 在您选择的Hypervisor中最重要的因素可能是您当前的使用或体验。 除此之外,还有与功能,文档和社区经验水平有关的实际问题。例如,KVM是OpenStack社区中最广泛采用的Hypervisor。 除了KVM,更多的部署运行Xen,LXC,VMware和Hyper-V比列出的其他人。 但是,每个都缺少一些功能支持或关于如何使用OpenStack的文档已过时。可在Hypervisor支持列表和配置参考中找到可用于支持您选择的最佳信息。

实例存储解决方案

作为计算群集的采购的一部分,必须为运行实例化实例的磁盘指定一些存储。有三种主要方法来提供这种临时类型的存储,重要的是要了解选择的影响。他们是:

关闭计算节点存储

- 共享文件系统打开计算节点存储

- 共享文件系统打开计算节点存储

- 非共享文件系统

一般来说,在选择存储时应提出的问题如下:

你可以实现什么盘数?

尽管网络访问,更多的心轴会导致更好的I / O吗?

哪一个会导致您所针对的最佳性价比方案?如何在操作上管理存储?

许多运营商使用单独的计算和存储主机。计算服务和存储服务有不同的要求,计算主机通常比存储主机需要更多的CPU和RAM。因此,对于固定预算,为计算节点和存储节点配置不同的配置是有意义的。计算节点将投资于CPU和RAM,存储节点将投资于块存储。但是,如果您在可用于创建云的物理主机数量上受到更多限制,并且希望能够尽可能多地为运行实例分配主机,则在同一计算和存储上运行计算和存储是有意义的机器。我们将在接下来的几节中讨论实例存储的三种主要方法。

关闭计算节点存储 - 共享文件系统

在此选项中,存储运行实例的磁盘托管在计算节点外部的服务器中。如果使用单独的计算和存储主机,则可以将计算主机视为“无状态”。只要当前在计算主机上没有运行任何实例,就可以使其脱机或完全擦除而不产生任何影响 在你的云的其余部分。 这简化了计算主机的维护。

这种方法有几个优点:

- 如果计算节点发生故障,实例通常很容易恢复。

- 运行专用存储系统在操作上可以更简单。

- 您可以缩放到任意数量的主轴。

- 可以共享外部存储器用于其他目的。

这种方法的主要缺点是:

- 根据设计,某些实例的大量I/O使用可能会影响不相关的实例。

- 使用网络可能会降低性能。

打开计算节点存储 - 共享文件系统

在此选项中,每个计算节点都指定了大量的磁盘空间,但是分布式文件系统将每个计算节点的磁盘绑定到单个装载中。 此选项的主要优点是,当您需要额外的存储时,它可扩展到外部存储。 但是,此选项有几个缺点: - 与非共享存储相比,运行分布式文件系统可能会导致数据本地性丢失。 - 根据多个主机,实例的恢复很复杂。 - 计算节点的机箱大小可以限制能够在计算节点中使用的主轴的数量。 - 使用网络可能会降低性能。

打开计算节点存储 - 非共享文件系统

在此选项中,每个计算节点都指定有足够的磁盘来存储其托管的实例。 这是一个好主意有两个主要原因:

- 一个计算节点上的大量I / O使用不会影响其他计算节点上的实例。

- 直接I / O访问可以提高性能。

这有几个缺点:

- 如果计算节点失败,则在该节点上运行的实例将丢失。

- 计算节点的机箱大小可以限制能够在计算节点中使用的主轴的数量。

- 将实例从一个节点迁移到另一个节点更复杂,并且依赖于可能不会继续开发的功能。

- 如果需要额外的存储,则此选项不会缩放。

在除了计算节点之外的存储系统上运行共享文件系统对于可靠性和可伸缩性是最重要的因素的云来说是理想的。在计算节点本身上运行共享文件系统可能是最好的情况,您必须部署到预先存在的服务器,您几乎没有控制他们的规范。在计算节点本身上运行非共享文件系统对于具有高I/O要求和低可靠性的云来说是一个很好的选择。

实时迁移的问题

我们认为实时迁移是云操作的一个组成部分。 此功能提供了将实例从一个物理主机无缝移动到另一个物理主机的能力,这是执行需要重新启动计算主机的升级的必要性,但仅适用于共享存储。还可以使用称为KVM活动块迁移的功能,通过非共享存储进行实时迁移。 虽然KVM和QEMU中基于块的迁移的早期实现被认为是不可靠的,但是基于块的实时迁移的更新,更可靠的实现是与OpenStack兼容的QEMU 1.4和libvirt 1.0.2。

文件系统选择

如果要支持共享存储实时迁移,则需要配置分布式文件系统。可能的选项包括:

- NFS(Linux的默认值)

- GlusterFS

- MooseFS

- Lustre

我们已经看到了所有的部署,并建议您选择最熟悉操作的部署。 如果你不熟悉任何这些,选择NFS,因为它是最容易设置和有广泛的社区知识。

过度使用

OpenStack允许您在计算节点上过度使用CPU和RAM。这允许您增加可以在云上运行的实例数,但代价是降低实例的性能。默认情况下,OpenStack Compute使用以下比率: CPU分配比:16:1 RAM分配比:1.5:1 默认的CPU分配比为16:1意味着调度程序为每个物理核心分配最多16个虚拟核心。例如,如果物理节点具有12个内核,则调度程序会查看192个可用虚拟内核。对于每个实例4个虚拟核心的典型风味定义,此比率将在物理节点上提供48个实例。计算节点上虚拟实例数量的公式为(OR * PC)/ VC,其中:

- OR

CPU超额比率(每个物理核心的虚拟核心)

- PC

物理内核数

- VC

每个实例的虚拟核心数

类似地,1.5:1的默认RAM分配比率意味着只要与实例关联的RAM总数小于物理节点上可用RAM的1.5倍,调度器就会将实例分配给物理节点。

结论

计算节点是您的云的主力和用户的应用程序将运行的地方。 它们可能受到您对要部署的部署和部署方式的决定的影响。 他们的要求应该反映在你所做的选择。

OpenStack计算节点部署教程的文章和大家分享结束,感谢阅读!

(责任编辑:大卫)

分享到:

------分隔线----------------------------