tag 标签: OpenStack

相关帖子
相关博文
  • 热度 2
    2024-10-22 14:28
    386 次阅读|
    0 个评论
    1. 方案背景和挑战 裸金属服务器作为一类特别设计的计算类云服务,向最终用户提供了云端部署的专属物理服务器,这意味着最终用户不再需要与其他租户共享硬件资源,从而确保了资源的独占性、性能的最优化以及数据的最高级别安全。 裸金属服务器作为云上资源的重要部分,其网络需要与云主机和容器同样连接在VPC下,并且能够像云主机和容器一样使用云上的网络功能和能力。 当前,基于OpenStack的裸金属服务实现主要依赖于Ironic组件,并通过OpenStack的Neutron网络组件来实现裸金属服务器的网络连接。在该方案下,裸金属服务器的网络使用的是物理网卡,因此网络配置依赖于物理上的网络拓扑(例如需要知道裸金属网卡连接到交换机的端口编号),物理网络拓扑连接完成后就确定了,为了实现 VPC 等网络功能,需要对裸金属服务器的上联交换机做一些动态配置,以实现网络的切换。 Neutron原本是为虚拟机网络环境设计的,因此在应用于裸金属服务时,便暴露出了不足之处,带来了一系列的问题与挑战,具体体现在以下几个方面: a. 网络管理复杂性增加,提高了管理难度 - VLAN支持要求:Ironic的网络实现需要物理交换机的VLAN支持,并且要实现VLAN和VPC的匹配和转换,以确保裸金属服务器能够正确地接入网络。这不仅增加了网络配置的复杂性,也提高了管理难度。 - 拓扑要求:物理网络拓扑需要能够支持VLAN的划分和管理,这可能涉及到复杂的网络设备配置和维护。 b. SDN集成困难,降低网络性能 - 流量转换需求:在裸金属场景下,直接使用软件定义网络(SDN)技术存在困难。通常需要将网络流量引导到一个特定的网络节点进行转换,这不仅会降低网络性能,还会增加网络管理的复杂度。 - 性能与管理权衡:这种流量转换机制可能导致网络性能下降,同时也增加了网络管理和维护的工作量。 c. 安全组实现困难,增加运维成本 - 安全组规则不适用:传统裸金属服务器直接连接到物理交换机,导致OpenStack的安全组规则无法直接应用于裸金属服务器。安全组是OpenStack中用于控制网络流量的安全机制,其规则定义了允许或拒绝的网络流量类型。 - 交换机防火墙规则影响:如果尝试通过物理交换机的防火墙规则来实现类似的安全控制,可能会影响到其他业务的正常运行,并且会大幅增加运维成本。 d. 网卡热插拔支持不足,限制了系统灵活性 - 物理限制:传统裸金属服务器的物理网卡不支持热插拔功能。这意味着在不关闭服务器的情况下,无法添加或移除网络适配器,这限制了系统的灵活性和服务的可用性。 - 维护与更新挑战:缺乏热插拔支持使得网络维护和更新变得更加困难,可能需要计划停机时间,从而影响服务的连续性和用户体验。 基于OpenStack的裸金属服务网络实现,虽然借助Ironic和Neutron组件获得了良好的表现,但在网络管理、SDN集成、安全组应用以及网卡热插拔支持等方面仍面临一系列挑战。这些挑战需要通过技术创新和架构优化来逐步解决,以提高裸金属服务的性能、安全性和管理效率。 2. 方案介绍 2.1. 整体方案架构 为了解决上文提到的问题与挑战,本方案创新性的引入了DPU组件,并仍然使用Openstack Ironic node资源来管理裸金属实例。在开源Ironic组件(ironic-api、ironic-conductor)之外,我们自研了Ironic-dpu-agent组件,运行在每个裸金属节点的DPU Soc中,用于管理裸金属实例的存储、网络资源。 整体方案架构如下图: 各组件作用如下: Ironic-api:裸金属rest api服务。 Ironic-conductor:裸金属实例的任务控制服务,负责裸金属开关机、重启、部署等任务。 Ironic-dpu-agent:运行在DPU Soc上,与Ironic-conductor通过RPC通信,负责管理本节点裸金属实例的存储、网络资源。 Neutron-server:OpenStack网络服务,为裸金属实例提供network、subnet、port管理功能。 2.2. 方案详细描述 在基于DPU的OpenStack裸金属网络方案中,裸金属服务器的网络配置完全由DPU卡负责,裸金属服务器本身不需要任何传统的物理网卡。DPU卡为裸金属服务器提供物理功能(PF)、虚拟功能(VF)或可分割功能(SF)设备,作为网络接口。这些网络接口完全由DPU的系统级芯片(SOC)侧的Open vSwitch(OVS)进行配置,无需依赖外部物理交换机即可实现网络连接。 在该方案中,DPU负责处理包括VXLAN、Geneve等在内的各种虚拟网络协议,能够支持虚拟机与裸金属服务器之间的网络互通,保证灵活且高效的网络连接。这种网络拓扑简化了裸金属服务器的部署流程,因为服务器无需依赖外部交换设备,所有的网络管理和配置工作都在DPU卡上完成,大大减少了对传统物理网络基础设施的依赖。 在控制节点上,OpenStack的Neutron组件负责网络服务的管理,并通过OVN(Open Virtual Network)来与DPU通信。DPU的SOC上运行着OVS(Open vSwitch),这是整个方案中负责网络流量转发和管理的关键组件。同时,DPU的SOC侧还运行着OVN控制器(ovn-controller)和Ironic-dpu-agent,分别负责虚拟网络的控制和裸金属网络的管理。 OVN控制器:负责与Neutron进行通信,并根据网络需求配置OVS,实现裸金属服务器与虚拟机之间的网络连接。 Ironic-dpu-agent:这是Ironic服务的一个代理,它通过控制和配置OVS上的端口,管理DPU网络资源,负责为裸金属服务器分配和管理网络接口。 在这个架构下,DPU卡上提供的PF、VF等网络设备通过其代表接口(pfRep和vfRep)连接到OVS。裸金属服务器通过这些网络设备与DPU卡通信,进而连接到整个虚拟网络系统中。OVS通过在SOC上运行的p0和p1端口负责管理所有的网络流量,从而使裸金属服务器能够无缝地加入虚拟网络。 这种架构极大地提升了裸金属服务器的网络性能,同时减少了对外部交换机的依赖,降低了部署成本和复杂度。在实际应用中,这种基于DPU的网络架构可以大幅提高数据中心的资源利用率,并为多租户环境下的虚拟机和裸金属服务器提供高效、安全的网络隔离和互通。 裸金属node节点绑定创建的虚拟port,Neutron Server 通过 OVN Plugin 将端口信息写入 OVN NB DB,当Ironic-dpu-agent 获得node绑定port信息后,配置OVS的interface中的iface-id,然后通过ovn-controller下发流表,跟虚拟机网络流标下发方式一致。 网卡热插拔 在原生Ironic中,可以实现一定程度网卡热插拔,但是要求机器上有冗余的网卡设备,这些网卡设备可以在需要的时候被启用/禁用。这种方式也有一些缺陷,一方面这不够灵活,不同的用户需求不一样,冗余多少块网卡不便于确定。另一方面,如果冗余的网卡没有得到使用,造成了资源浪费。 在基于 DPU 的方案中,如前文所述,裸金属的网卡是由DPU的 PF/VF/SF 设备提供的,而 DPU 往往提供了大量的 VF/SF(数百个以上),足够满足用户的需求。那么网卡的热插拔就变成了 PF/VF/SF 设备的动态插拔和配置问题,这仍然是由 Ironic-dpu-agent组件完成的。 3. 测试与验证 3.1. 网络拓扑 以下是示例网络拓扑: 其中,普通业务流量和存储流量最好划分VLAN。BMC 带外管理网和千兆管理网需要打通,测试时也可简单用同一个网络。 3.2. 软件环境 依赖以下软件环境: 类别 名称 版本 来源 备注 OpenStack集群 OpenStack zed 开源社区 网络 neutron zed 内部版本 存储 volume-attacher cloudV5.4-6 内部版本 opi-bridge cloudV2-4 内部版本 裸金属组件 ironic zed 内部版本 ironic-dpu-agent cloudV1.0 内部版本 3.3. 测试用例及结果 3.3.1.创建资源 创建网络、子网、路由器、链接路由器和子网 openstack network create openstack subnet create --network \ --subnet-range \ --gateway \--dns-nameserver ##路由器 openstack router create ###链接 openstack router add subnet 创建flavor openstack flavor create --ram --vcpus --disk ###裸机属性设置 openstack flavor set --property resources:VCPU= \ --property resources:MEMORY_MB= \ --property resources:DISK_GB= \ --property capabilities:boot_option=local 创建镜像 openstack image create \ --disk-format raw \ --container-format bare \ --file \ --public openstack image set --property hypervisor_type=baremetal 创建node openstack baremetal node create \ --driver \ --driver-info ipmi_address= \ --driver-info ipmi_username= \ --driver-info ipmi_password= \ --property cpus= \ --property memory_mb= \ --property local_gb= \ --property cpu_arch= 3.3.2. 创建裸金属服务器实例 创建裸金属实例与创建虚拟机操作流程一致,选择裸金属的flavor即可: openstack server create --flavor bm-flavor-01 --image centos8.5 --boot-from-volume --network net01 bm-01 3.3.3.安全组 创建裸金属实例与创建虚拟机安全组添加一样,创建port的时候选择一个安全组即可: openstack port create --network net01 --vnic-type direct port01 --security-group default 3.3.4.连通性验证 在同一个net01下创建VM、BM,然后验证BM和VM的网络互通情况 创建VM: openstack port create --network net01 --vnic-type direct port01 openstack server create --flavor test-flavor- --image centos8.5 --port port01 vm01 登录通过bmc登录裸机bm-01验证: ping 3.3.5.网卡热插拔 先卸载port,再添加port: openstack port delete-port01 openstack baremetal port set --node --port 4. 方案总结 DPU赋能的Openstack裸金属网络解决方案,在以下几个方面具有显著优势: 1)Overlay网络终结在DPU侧,降低网络的复杂性: 通过在DPU侧终结Overlay网络,可以减少中间网络元素,摆脱了对物理交换机的依赖,简化整体网络拓扑架构。这种方式不仅降低了网络的复杂性,提高了网络的可管理性,还减少了设备成本和运维成本,使整个网络更加经济高效。 2)支持统一的SDN控制器,提升网络灵活性和响应速度: 采用统一的SDN控制器实现策略下发和调度,SDN网络不仅支持VLAN还可以使用Vxlan和Geneve,摆脱VLAN网络4096的限制。同时,有效简化SDN软件架构,提高网络的灵活性和响应速度,降低维护和管理的复杂性。 3)通过SDN实现安全组,降低运维成本: 通过SDN网络的ACL功能,可以在不依赖物理交换机的情况下实现安全组功能。这样可以直接在DPU上应用安全规则,而不需要通过物理交换机的防火墙规则,从而避免对其他业务的影响并降低运维成本。 4)支持网络接口热插拔,提升网络设备灵活性: 利用DPU的动态特性,可以实现网络接口的热插拔。这意味着在不影响服务器运行的情况下,可以增加新的网络接口或移除现有接口,从而提高系统的灵活性和服务的可用性。 综上所述,DPU驱动的Openstack裸金属网络方案通过一系列创新设计,不仅提高了网络的可管理性、可扩展性和安全性,还增强了系统的灵活性和服务的可用性,从而为裸金属服务器提供了更加强大和高效的网络支持。 本方案来自于中科驭数软件研发团队,团队核心由一群在云计算、数据中心架构、高性能计算领域深耕多年的业界资深架构师和技术专家组成,不仅拥有丰富的实战经验,还对行业趋势具备敏锐的洞察力,该团队致力于探索、设计、开发、推广可落地的高性能云计算解决方案,帮助最终客户加速数字化转型,提升业务效能,同时降低运营成本。
  • 热度 5
    2024-9-23 18:13
    279 次阅读|
    0 个评论
    1 方案背景和挑战 Openstack作为开源云计算领域的领军项目,凭借其强大的功能、灵活的架构以及活跃的社区支持,在全球范围内得到了广泛的采用。通过Openstack,企业和云服务提供商可以更加高效地管理和利用计算资源、存储资源和网络资源,实现业务的快速部署和灵活扩展,从而赢得市场竞争的先机。 Ironic作为Openstack的关键组件,提供了对裸金属服务的全面管理。通过Ironic,用户可以在云环境中直接控制和管理实体硬件,实现裸金属服务器的自动化部署、管理和监控。 原生的Ironic 采用本地物理盘进行启动,其首先将远程镜像下载并写入到本地物理盘中,然后再从本地盘启动进入系统。过程如下: 可以看到,其重点是通过方案具有以下问题和挑战: a. 部署启动周期长(20分钟左右),业务敏捷性低,用户体验差 (1)两次启动:在部署裸金属服务器时,首先会通过PXE启动一个小的、临时的系统环境,IPA会启动并执行部署任务。部署完成后,服务器会从已安装的操作系统启动。这两次启动过程增加了整体部署时间。 (2)镜像下载:IPA需要从Glance下载完整的用户镜像到内存中或临时存储,这个下载过程取决于镜像的大小和网络条件,可能会非常耗时。对于大型镜像或网络条件不佳的环境,这个步骤可能成为瓶颈。 (3)镜像写入本地盘:下载完镜像后,IPA还需要将这个镜像写入到服务器的本地磁盘上。这个过程也取决于磁盘的写入速度和镜像的大小,可能会进一步增加部署时间。 b. 消耗大量带宽,影响整体网络应用性能 全量下载系统镜像会消耗大量的网络带宽,尤其是在多节点部署或频繁更新镜像的场景下。这不仅增加了网络负载,还可能影响其他网络应用的性能。 c. 系统盘无法扩容,敏捷性和弹性低 在当前部署模型中,用户镜像被直接写入到服务器的本地磁盘上,并且通常是作为一个固定的分区或文件系统来配置的。这意味着如果后续需要增加系统盘的容量(例如,因为数据量增长或应用需求变化),可能需要重新部署整个服务器,这既耗时又复杂。 d. 依赖外部组件,增加系统复杂度和成本 部署过程依赖于多个外部组件,如PXE、TFTP、DHCP等,这些组件需要正确配置和维护。任何一个组件的故障都可能导致部署失败,增加了系统的复杂性和维护成本。 2 方案介绍 2.1 整体架构 为了解决OpenStack Ironic裸金属服务方案的问题,中科驭数基于DPU开发了ironic裸金属服务解决方案,整体架构图如下: 在本方案中,DPU支持裸金属服务器的网络和存储资源虚拟化,使得物理服务器能够像虚拟机一样灵活配置,动态添加或删除网卡、硬盘等资源。这为裸金属服务器提供了类似云服务的弹性,同时保持了物理机级别的性能。另外,DPU能够管理远程存储资源,如云盘,使得裸金属服务器可以使用云存储服务,同时通过DPU加速存储I/O,提高读写性能,使得云盘接近本地存储的体验。 本方案主要涉及glance、cinder、nova、neutron、ironic模块。仍然使用ironicnode资源管理裸金属实例。在开源ironic组件(ironic-api、ironic-conductor)之外,自研了ironic-dpu-agent组件,运行在每个裸金属节点的DPU Soc中,用于管理裸金属实例的存储、网络资源。本方案主要包含以下系统组件: Nova:对接ironic,为裸金属提供和虚拟机一致的操作。 Ironic-api:裸金属rest api服务。 Ironic-conductor:裸金属实例的任务控制服务,负责裸金属开关机、重启、部署等任务。 Ironic-dpu-agent:运行在DPU Soc上,与ironic-conductor通过RPC通信,负责管理本节点裸金属实例的存储、网络资源。在裸金属部署阶段,接收ironic-conductor下发的部署指令,在DPU内连接云盘并挂载到host。在裸金属运行时,接收ironic-conductor下发的添加、删除磁盘指令,为host动态添加、删除磁盘。\ Volume-attacher:负责裸金属磁盘的挂载、卸载操作。 Neutron:OpenStack网络服务,为裸金属实例提供network、subnet、port管理功能。 Cinder:OpenStack块存储服务,为裸金属实例提供云盘创建、删除等管理功能。 Glance:OpenStack镜像管理服务,为裸金属实例提供镜像上传、下载功能。 2.2 方案描述 在基于DPU的OpenStack裸金属服务方案下,实现了裸金属的部署启动、云盘热插拔、cloudinit、冷迁移等常用功能,以下对主要部分做详细描述,并和传统ironic方案进行部分对比。 2.2.1 基于DPU的无盘启动方案 在基于 DPU 的方案中,我们采用直接挂载云盘系统的方式,不使用本地盘,过程如下: nova-api接收到创建裸金属实例请求,调用nova-scheduler调度出ironic node。 nova-scheduler调用nova-compute孵化裸金属实例。 nova-compute根据指定的镜像,调用cinder创建出系统盘volume,cinder调用后端存储以快照方式克隆镜像卷,并不是完整拷贝,速度很快,一般在数秒内完成。 nova-compute的ironic virt driver根据指定的cinder volume在ironic中创建node的volume target,作为裸金属实例的云盘。之后调用ironic-api部署node。 ironic-conductor的dpu deploy driver调用node所对应的ironic-dpu-agent执行部署任务。 ironic-dpu-agent根据volume target在dpu内调用spdk映射云盘,给host侧挂载对应的系统盘。 系统盘挂载完成后,ironic-conductor通过BMC重启裸金属节点,此时BIOS能扫描到系统盘,启动进入系统,裸金属启动完成。 和 Ironic 传统方案相比,没有PXE过程,也只需启动一次。 2.2.2 存储对接 Ironic 原生存储对接方案: ironic的存储对接在host侧,host网络需和存储网络连通,且host中需安装相关组件,如下图: 为了完成云盘的挂载/卸载,host 中需要安装一个 ironic-agent,其调用 iscsi-initiator 或相应的存储客户端完成云盘的挂载/卸载操作。Ironic 的 StorageDriver 会配置好存储服务端,并调用 ironic-agent 完成云盘的操作。 基于DPU的存储对接方案: 在基于DPU 的方案中,系统盘和数据盘统一使用云盘,云盘由volume-attacher组件进行分配挂载。裸金属上看到的盘,是DPU 上的 spdk 通过 PCIE 模拟的设备。存储网络也是由 ovs 连接的和配置的。如下图所示: 相比于 Ironic 方案,DPU 方案有以下优势: 存储网络统一走DPU侧,隐藏了存储网络的细节,并可利用 DPU 进行网络加速; 兼容cinder后端存储,存储系统无需适配。云盘是通过cinder创建的,volume-attacher配置spdk连接云盘,模拟出对应的磁盘给到裸金属。 2.2.3 硬盘热插拔 如Ironic存储对接方案中所示,Ironic 中的 StorageDriver 调用 host 中的 ironic-agent 完成硬盘热插拔,用户镜像需安装相关依赖。 在基于DPU 的方案中,由于裸金属上的盘是 DPU 通过PCIE 模拟的,因此,通过动态调整 DPU 上的 spdk 配置,即可实现硬盘的热插拔。 3 方案测试结果 3.1 创建裸金属实例 与创建虚拟机流程类似,选择裸金属的flavor和镜像进行创建。 可以看到bm01、bm02两个裸金属实例,均为active状态。通过nova创建裸金属实例,ironic node中会关联instance uuid。 3.2 部署启动时间 我们定义裸金属的部署启动时间为:下发创建裸金属实例的命令,到裸金属实例网络IP可以ping通的时间。 在联创万通 LCWT R7220 服务器上,镜像 OS 为 Ubuntu 22.04 Server,内核版本为5.15.0-106-generic 时测得的启动时间:从创建到可 ping 通共耗时 161 秒(2min41s)。 基于 DPU 的裸金属服务方案启动时间在 2-3min 内,具体耗时取决于服务器类型和镜像版本。相比之下,我们测试传统 Ironic 本地盘方式在 20min 以上。 3.3 添加磁盘 添加磁盘前,裸金属系统内看到的磁盘列表: 添加磁盘后,裸金属系统内看到的磁盘列表,nvme2n1是新添加的磁盘: 3.4 删除磁盘 删除磁盘前,裸金属系统内看到的磁盘列表: 删除磁盘后,裸金属系统内看到的磁盘列表,nvme2n1被删除: 3.5 存储 iops 和吞吐 测试结果如下: 分类 测试项 写iops 写吞吐 读iops 读吞吐 随机读写 NVMe-OF+DPU+NVMe盘 682k 2662MiB/s 736k 2868MiB/s NVMe本地物理盘 684k 2667MiB/s 980k 3849MiB/s 顺序读写 NVMe-OF+DPU+NVMe盘 682k 2667MiB/s 705k 2761MiB/s NVMe本地物理盘 686k 2673MiB/s 991k 3892MiB/s 各测试项说明: 测试项中的NVMe-OF均指NVMe-OF over RDMA NVMe-OF+DPU+NVMe盘:基于 DPU 通过NVMe-OF协议连接Target,Target 后端是 NVMe物理盘 NVMe物理盘:直接对NVMe物理盘进行测试 可以看到,基于NVMe-OF的卸载方式下,DPU可以达到和NVMe本地盘近似的性能,几乎没有性能损耗。 4 方案优势 基于DPU的方案相较于传统的Ironic裸金属方案,在多个方面展现出了显著的优势。以下是这些优势的详细描述: a. 交付效率显著提升,大幅改善最终用户体验 云盘启动加速:传统Ironic方案多采用本地盘启动方式,这一过程涉及到镜像的下载、安装及配置,耗时较长,通常需要20分钟左右。而基于DPU的方案采用云盘启动,通过预先配置好的云盘镜像,可以极大地缩短启动时间至2-5分钟。这种快速启动能力对于需要快速部署和扩展的云环境尤为重要,能够显著提升资源交付的效率和灵活性。 b. 存算分离,提升服务敏捷性和弹性 基于DPU的方案实现了存储与计算资源的分离,这种设计使得计算和存储资源可以独立扩展和优化。当业务需求变化时,可以迅速调整计算或存储资源,而无需对整个系统进行大规模的调整,从而提升了服务的敏捷性和弹性。此外,存算分离还有助于实现资源的更高效利用,避免了资源瓶颈和浪费。这种特性对于需要快速响应市场变化和灵活调整业务规模的云环境尤为重要。 c. 控制面与数据面分离,提升安全性和资源利用率 控制面与数据面下沉至DPU:通过将控制面和数据面处理任务下沉到DPU,不仅减轻了Host CPU的负担,还实现了对存储网络和后端存储细节的隐藏。这种设计提升了系统的安全性,防止了潜在的安全威胁,还使得Host侧的资源能够完全专注于业务处理,从而提高了资源利用率。 不侵入用户镜像:基于DPU的方案不依赖于用户镜像进行功能实现,避免了因镜像更新或修改导致的兼容性问题,同时也简化了用户镜像的管理和维护工作。 d. 架构简化,降低复杂度和维护成本 不依赖PXE等组件:传统Ironic方案可能需要依赖PXE(预启动执行环境)等组件来实现网络启动和镜像部署。而基于DPU的方案则通过内置的网络和存储功能,实现了更为简洁的架构设计,降低了系统的复杂度和维护成本。 e. 性能优化,接近本地盘体验 硬件加速利用:DPU内置了多种硬件加速功能,能够充分利用这些特性来提升云盘的性能表现。从测试数据中可以看到,在基于DPU的方案中,云盘性能可以达到接近甚至等同于本地盘的性能水平,为用户提供了更加流畅和高效的数据访问体验。 综上所述,基于DPU的方案在交付效率、存储支持、安全性与资源利用率、架构简化以及性能优化等方面均展现出了显著的优势,为裸金属云服务的发展提供了新的动力和方向。 本方案来自于中科驭数软件研发团队,团队核心由一群在云计算、数据中心架构、高性能计算领域深耕多年的业界资深架构师和技术专家组成,不仅拥有丰富的实战经验,还对行业趋势具备敏锐的洞察力,该团队致力于探索、设计、开发、推广可落地的高性能云计算解决方案,帮助最终客户加速数字化转型,提升业务效能,同时降低运营成本。
相关资源
  • 所需E币: 5
    时间: 2022-10-6 22:33
    大小: 1.65MB
    上传者: ZHUANG
    基于OpenStack架构的视频监控服务平台
  • 所需E币: 1
    时间: 2022-5-5 15:34
    大小: 3.21MB
    上传者: 西风瘦马
    基于OpenStackDocker打造Spark大数据服务.pdf
  • 所需E币: 3
    时间: 2019-8-3 18:59
    大小: 10.89KB
    上传者: CyanWing
    《OpenStack身份识别、授权与访问管理》由OpenStack社区Keystone组件的几位核心成员编写。首先介绍Keystone的基本概念与工作原理,并通过简单直观的实例向读者展示了Keystone的日常维护与使用方法。接着重点介绍了LDAP相关知识及其在Keystone中的使用。最后介绍了Keystone组件的发展方向与工作方向。目录
  • 所需E币: 3
    时间: 2019-8-3 19:01
    大小: 10.89KB
    上传者: CyanWing
    目前,以云计算等为代表的新兴技术得到了大量的运用与普及。同时,凭借着众多极其独特的优势,OpenStack业已成为开源云计算技术领域的既定事实标准。本书是一本介绍OpenStack测试和CI/CD实践的书,基于此,本书内容以实践操作为主,从理论到实践,循序渐进,依次讲解了DevOps和CI/CD的理论概念;软件测试基础和有效设计OpenStack测试用例的方法;如何参与OpenStack社区贡献及其沟通交流,以及OpenStack社区CI/CD系统和企业互操作性测试认证;OpenStack不同维度测试的实现和方法;基于OpenStack构建和运行服务于企业研发测试的CI/CD应用。本书适合于云计算相关专业的高校师生和具有一定软件测试或云计算技术基础的读者使用,对于在云计算企业中从事技术工作的管理人员、QA测试人员和研发人员,本书也非常适用。
  • 所需E币: 3
    时间: 2019-6-4 22:20
    大小: 1.63MB
    上传者: royalark_912907664
    针对OpenStack推出的分布式虚拟路由网络架构流量统计需求,采用Nuetron服务框架、L3metering流量统计功能及Ceilometer监控项目,设计了一种能够在分布式虚拟路由网络架构下统计虚拟机绑定浮动IP流量的统计系统。描述了系统的设计框架和模块组成,对设计采用的流量统计关键步骤进行了分析和论述。最后展示了系统使用的效果图,并通过实验模拟发送数据包验证了该系统能够有效的统计虚拟机的访问流量,准确率达到98%以上。
  • 所需E币: 3
    时间: 2019-6-2 09:38
    大小: 1.63MB
    上传者: royalark_912907664
    针对企业需要快速部署基于云计算平台上的各项服务,用户需要高效访问各类云服务等需求,文中分析了OpenStack开源框架结构,分析实现云平台关键技术和难点,利用虚拟化技术设计规划并实现了一个基于OpenStack的最小规模的云计算平台,紧接着安装认证服务、镜像服务、网络服务、存储服务等常用的云计算服务。最后,借用图形界面企业可以快速部署相关服务,用户按需访问相关服务。结果表明,由于云计算平台可以实现资源自动化管理、运维自动化进行,因此,通过云计算平台部署服务,资源利用率比较高;通过按需访问云平台上的服务,数据响应速度比较快。
  • 所需E币: 3
    时间: 2019-6-2 11:54
    大小: 1.48MB
    上传者: royalark_912907664
    在云计算领域随着以Docker为代表的容器引擎与以Kubernetes为代表的容器编排引擎的不断成熟,容器技术越来越火热。包括Google、Amazon、阿里巴巴在内的众多公司都开始在云平台上提供容器服务。文章基于开源云平台OpenStack,通过分析Magnum的流程与原理,对其容器网络方案可扩展性不足的问题做出了改进。通过对容器网络插件的部署方式进行重构,将容器网络插件配置与容器集群配置之间解耦,完善了magnum容器网络的可扩展性。最后通过创建不同容器网络的集群对方案进行验证。
  • 所需E币: 3
    时间: 2019-6-2 18:36
    大小: 1.39MB
    上传者: royalark_912907664
    由于资源有限、设备老化、扩展性较差等缺陷,目前我国高校和企业的普通计算机设备已经难以满足日益增长的教学与科研需求。鉴于此,文中基于OpenStack云平台架构,设计并构建了一套云实验平台。该平台的架构包括用户界面、基于OpenStack实现的各类服务、硬件资源、监控和配置管理工具等,能为高校及企业提供弹性的教学和科研实验计算服务,并在分布式计算、虚拟桌面等应用方面具有较大潜力。经过分析后发现,该云实验平台具有较高的效用比和较低的扩展成本,能够有效提高教学及科研实验效率,具有一定的实用价值。
  • 所需E币: 3
    时间: 2019-5-26 09:08
    大小: 5.22MB
    上传者: royalark_912907664
    随着OpenStack云计算平台的商用,为保证上线后平台的正常运行,针对云平台的承受能力及其所能提供的云主机的性能,对平台进行性能测试,通过对云平台的应用场景和功能进行分析,确定云平台性能测试的内容,从而根据测试内容确定测试工具和测试方法,并利用实验云平台进行验证,表明了测试结果的有效性,最终形成OpenStack云计算平台的性能测试方案。