思科超融合测试 Cisco HyperFlex 超融合系统

Cisco HyperFlex 超融合系统

1.     前言

1.1、  测试背景

虚拟化技术是云计算的关键技术之一,随着云计算技术的逐步推广, 虚拟化环境下传统集中存储架构被越来越多地诟病,超融合架构越来越多地成为虚拟化环境中的首选基础架构。由于其横向扩展、快速部署、易管理、节省机柜空间和耗电等,已在制造、金融、电信、电力等行业的数据中心领域得到部署和应用。

Cisco HyperFlex 作为业界领先的超融合虚拟化平台厂商之一,能够更加快速、高效、稳定的支撑起众多企业的虚拟化环境。

1.2、  测试目的

此次测试需要达到以下目的:

  • 验证CiscoHyperFlex 超融合架构的整合功能。
  • 验证CiscoHyperFlex 基于VMware虚拟化管理套件的功能特性
  • 验证CiscoHyperFlex 超融合架构的可靠性及冗余特点
  • 验证CiscoHyperFlex 系统存储IOPS性能表现

1.3、  测试环境

CiscoHyperFlex 超融合虚拟化测试平台配置如下:


设备型号


每节点(共三个节点)


CPU


内存


硬盘


网络


FI-6268(2台)


UCS节点(3台)


E5-2630V4


256GB


SSD:120GB  *1

SSD:489GB*1

HDD:1.2TB*1


10GB  SFP+ *2


核心业务交换机(1台)


1台Cisco N9K 核心交换机

1.4、  网络拓扑

Cisco HyperFlex 测试环境网络拓扑图:


软件名称


软件描述


备注


vCenterServer


vCenterServer6.0


VCSA6.0  (SuSe Linux)


DNS/NTP


WindowsServer2012R2


AD/DNS/NTP


IOmeter-1.1.0  for Win


存储性能测试工具


每个节点部署一个Testing VM,使用Windows Server2008R2


HCIBenchv1.6.1.0


VMware  HCI 超融合架构性能测试软件


通过OVF 导入该测试软件虚拟机

1.5、  网络地址规划

每个节点有2个万兆端口,分别连接2台万兆FI交换机,FI交换机使用trunk口上联到用户三层交换机。2台FI交换机管理端口通过三层交换机上连至用户已有的管理网络。

1.5.1、   IP地址规划


网络


Management


Data


节点


Hypervisor/VMotion


StorageController


Hypervisor


StorageController


Node-A


192.168.207.111


192.168.207.114


1.1.1.11


1.1.1.14


Node-B


192.168.207.112


192.168.207.115


1.1.1.12


1.1.1.15


Node-c


192.168.207.113


192.168.207.116


1.1.1.13


1.1.1.16


Gateway


192.168.207.252


192.168.207.252


N/A


N/A


HypervisorClusterManager


192.168.207.117


Installer


192.168.206.11


DataClusterManager


1.1.1.17


DNS


N/A


NTP


192.168.206.1

1.5.2、   VLAN规划


VLAN ID


IP地址段


网关


用途


备注


305


192.168.207.x


192.168.207.252


VM管理、VM业务


FI带外管理


100


1.1.1.x


N/A


分布式数据存储

1.5.3、   用户名密码规划


分类


用户名


口令


连接方式


FI Node


admin


Cisco123


MMC


CVM


root


Cisco123


SSH


ESXi


root


Cisco123


SSH/MMC


IPMI


admin


Cisco123


MMC


vCenter


[email protected]


[email protected]


HTTPS、MMC


NTP/DNS


test.com\administrator


abc123.


MSTSC

2.     HyperFlex综合功能测试

2.1、  IOmeter性能测试

2.1.1、   概述

性能测试主要考验Hyperflex系统读写的IOPS、响应延迟和吞吐带宽。

如果用户需要部署VDI虚拟桌面或数据库应用、文件服务等对存储读写有要求的应用,则会关注在Hyperflex平台上,不同应用场景的应用业务性能将达到的效果。

建议使用IOmeter进行IOps的性能测试,一个在存储领域广泛使用的性能测试软件,企业用户比较认可通过该软件跑出来的结果;另外该软件操作也比较简单,运行在Windows 2008/2012之上,图形化的界面管理。另外在VDI环境测试也可以使用HCIBench软件模拟出批量创建虚拟机并通过这些虚拟机同时运行脚本测试读写性能。

为了跑出最大的性能,建议在每台Hyperflex Node Server部署一个安装了Windows操作系统+IOMeter_VM,通过IOmeter提供的Manager组件同时把这几个IOmeter测试Agent统一管理,同时测试性能,获得累加后的性能数据。

2.1.2、   IOmeter 基本I/O性能测试数据


测试场景


总IOPS


读IOPS


写IOPS


平均响应时间(毫秒)


平均读取响应时间(毫秒)


平均写入响应时间(毫秒)


4K  30%写/70%读/100%随机


86562.81


60730.04


25832.77


4.4


2.2


9.7


4K100%读/100%随机


268567.53


268567.53


N/A


1.42


1.42


N/A

说明:测试时长25分钟左右。

2.1.3、   测试步骤

创建IOmeter集群,在每个Hyperflex Node上创建一个VM(运行windows+IOmeter),其中Test1运行IOmeter控制台(管理多个IOmeter Manager)和IOmeter Manager(实际跑性能的程序);其他TestX运行IOmeter Manager。

加入集群操作步骤如下:

C:\IOmeter>Dynamo–I 192.168.206.23 –m 192.168.206.24

192.168.206.23是Remote IOMeter Server 控制台,192.168.206.24 是加入集群的Manager。

每个测试的虚拟机(win2k8-iometer1、win2k8-iometer2和win2k8-iometer3)都新添加8块虚拟磁盘,每块虚拟磁盘大小为10GB。使用2个SCSI控制器;每个测试虚拟机配置8个vCPU和8GB内存,进入每个测试虚拟机安装并运行IOmeter。

每个测试虚拟机有8个Worker,设置每个Worker对应一块单独的盘,这样压力足够大。

将各IOmeter Manager注册到IOmeter控制台上。每个IOMeterManager会自动生成Worker线程,把CPU撑满。

在每个Worker中选择目标盘/测试模板和结果刷新周期。

设置测试时间为30分钟。

2.2、  VMware HCI Bench测试

2.2.1、   测试环境

通过HCI Bench部署20台虚拟机,分布在3台HX节点上,每个VM的参数如下表所示:


GuestOS


vCPU


Memory


Disks


Disk Size


Data Profile


Linux  photon

HCIBenchv1.6.1.0


4


4096MB


2块


16GB、30GB


70%Read  vs 30%Write 100% Random 4k block

2.2.2、   测试结果

2.2.3、   测试流程

2.3、  HyperFlex 高可用性测试

2.2.4、   测试概述

在进行HyperFlex高可用性测试之前,需要检查准备工作是否已完成,以免在测试的过程中发生无法及时切换的情况。依次进行模拟故障测试时,需前一个故障在系统中已恢复消除,再展开下一个节点的测试。

每个HX Node Server 已经预先部署了几个测试虚拟机。

2.2.5、   测试场景


测试场景


测试点


测试目标


测试条目/步骤


结果


主机节点关机


集群节点冗余测试


具备分布式架构独有的高可用特性,集群中不再存在单一故障点

  • 依次人为关闭Node A、Node B、Node  C三件节点
  • 运行在该节点的虚拟机是否发生迁移
  • 观察其虚拟机运行应用是否受影响
  • 观察恢复时,运行在该节点的虚拟机是否发生迁移
  • 观察恢复时,其虚拟机运行应用是否受影响

运行在该节点的虚拟机丢包53个后恢复,该节点恢复后,虚拟机不再发生迁移,该节点恢复时,虚拟机运行不受影响。


FI 交换设备关机


FI互联矩阵冗余测试


具备主备集群模式的FI交换设备,不存在单一设备故障点

  • 依次人为关闭FI-A、FI-B设备
  • Standby节点FI顺利完成集群节点切换
  • 观察HyperFlex平台虚拟机运行应用是否受影响
  • 观察恢复时,HyperFlex平台虚拟机运行应用是否受影响

分别运行在三个节点上的虚拟机,3个不丢包,恢复时,分别运行在三个节点上的虚拟机,3个不丢包.


FI交换设备

上联链路断开


FI互联矩阵上联链路冗余测试


冗余的上联链路,不存在单一链路故障点

  • 依次人为关闭FI-A、FI-B设备的上联链路
  • 观察HyperFlex平台虚拟机运行应用是否受影响
  • 观察恢复时,HyperFlex平台虚拟机运行应用是否受影响

分别运行在三个节点上的虚拟机,有3个丢一个包,恢复时,分别运行在三个节点上的虚拟机,有2个丢5个包,另外1个不丢包。


节点链路断开


节点端口冗余


具备主备模式的万兆交换模块,不存在单一端口故障点

  • 人为拔掉任一个节点主机其中万兆端口连接线
  • 观察HyperFlex平台虚拟机运行应用是否受影响
  • 观察恢复时,HyperFlex平台虚拟机运行应用是否受影响

分别运行在三个节点上的虚拟机,只有1个丢一个包,另外2个不丢包,恢复时,分别运行在三个节点上的虚拟机,只有1个丢一个包,另外2个不丢包


CVM虚拟机关机


CVM冗余测试


具备分布式架构独有的高可用特性,集群中不再存在单一故障点

  • 人为关闭任一节点CVM虚拟机
  • 观察HyperFlex平台总容量是否发生变化
  • 观察HyperFlex平台虚拟机运行应用是否受影响
  • 观察恢复时,HyperFlex平台总容量是否发生变化
  • 观察恢复时,HyperFlex平台虚拟机运行应用是否受影响

只有一台虚拟机丢了一个包;运行不受影响,HyperFlex平台总容量没有发生变化,恢复时,虚拟机运行不受影响,HyperFlex平台总容量没有发生变化。


磁盘故障


SSD磁盘冗余测试


具备分布式架构独有的高可用特性,集群中不再存在单一故障点

  • 人为拔出任一节点的480GB SSD磁盘
  • 观察HyperFlex平台虚拟机运行应用是否受影响
  • 观察恢复时,HyperFlex平台虚拟机运行应用是否受影响

三个虚拟机的IOPS都明显下降,恢复后,三个虚拟机的IOPS都明显回升。


硬盘故障


HDD磁盘冗余测试


具备分布式架构独有的高可用特性,集群中不再存在单一故障点

  • 人为拔出任一节点的1.2TB HDD磁盘
  • 观察HyperFlex平台虚拟机运行应用是否受影响
  • 观察恢复时,HyperFlex平台虚拟机运行应用是否受影响

虚拟机运行不受影响,恢复时,虚拟机运行不受影响。

2.2.6、   测试小结

Cisco HyperFlex基于分布式架构的平台 ,在对应磁盘,电源,计算节点,网络设备等单点故障时,有着完善的冗余保护。具有高可用性,保障业务的正常运行。

2.4、  系统监控功能

2.3.1    vCenter HX Plugin插件

Hyperflex的存储服务管理通过vCenter HX Plugin插件完成,可以和vCenter一起完成对虚拟化资源的管理和监控。

HX Plugin插件位于vSphere web client中vCenter Inventory Lists – Cisco HyperflexSystems下,直接点击Cisco HX Data Platform进入。

2.3.2    HX 系统健康状态监控

直接点击Cisco HX Data Platform进入Hyperflex系统管理界面,可以获取HX系统健康状态概览:

点击HX-Storage-Cluster - Summary,可以查看HX系统更加详细的信息

2.3.3    Host健康状态监控

点击HX-Storage-Cluster–Manage-Cluster,可以查看HX Node server的健康状态信息

2.3.4    容量监控

可以通过vCenter HX plugin监控HX的存储容量和每个Data Store的存储容量。

点击HX-Storage-Cluster – Summary查看HX系统的存储容量状态。

点击HX-Storage-Cluster–Manage–Datastore–Summary查看每个DataStore的存储容量情况

点击HX-Storage-Cluster–Manage–Datastore–Hosts查看每个DataStore的在每个Host上的状态情况

2.3.5    故障监控

点击HX-Storage-Cluster–Monitor–Events查看系统日志和告警

2.3.6    性能监控

点击HX-Storage-Cluster–Monitor–Performace查看cluster/host/datastore的IOPS/带宽/延迟

Storatg Cluster 性能状态

Hosts 性能状态

Datastores 性能状态

2.5、  特色功能展示

2.4.1.  简单方式创建数据存储

创建VMware Cluster所需的共享存储空间,HyperFlex提供更直接的方式,在HX Plugin创建存储容量后,VMware Cluster Host将直接被挂载,更加的方便

2.4.2.  通过UCSM统一管理HyperFlex基础设施

UCSM提供原生的网络/计算/存储基础设置统一管理,管理功能实用性远超同类产品

2.4.3.  快速克隆虚拟机

相比于VMware提供的虚机克隆功能,HX通过存储指针变化方式生成快照,快速高效,20个VM仅需要约7秒钟 使用Right-clicka VM > Cisco plugin > Ready Clone。

2.4.4.  去重和压缩

Hyperflex的去重和压缩是自动开启的,可以通过vCenter HXplugin来观察压缩和去重的效果。 在三台HX Server Node共克隆20个VM,使用同一存储空间,克隆完后,观察HX存储容量大小的变化。虽然新增了20个新的VM,但由于启用了去重功能,存储容量的增长比实际20个VM所需要的容量少很多。

2.4.5.  小结

  • 整体界面简洁,信息展示完整。
  • 优秀的系统高可用性设计,单节点故障不会影响系统运行
  • 运维简便
  • 优秀的报表功能
  • 完整的数据保护功能

在随机读写上,HyperFlex的SSD热层技术保障数据在SSD层被充分利用。高IO表现完全优于传统的存储阵列。

3.     测试总结

3.1、  性能测试

超融合架构可充分利用企业级的固态硬盘(SSD)。值得注意的是,传统的存储系统专门针对旋转介质而设计,所以很难有效利用SSD,因为SSD的访问模式截然不同。机械硬盘有旋转和时延,而SSD则不存在这些机械局限性。由于两种媒介之间存在这种不同,因此要求软件进行不同的优化,以实现最佳的性能。我们不能简单拿来专门针对机械硬盘系统编写的软件,然后希望它能够有效运用于固态硬盘。超融合架构利用SSD存储各种各样的常用数据——从虚拟机元数据到主数据存储,一方面通过分布式缓存获得高性能,另一方面通过永久存储实现快速检索。为了将SSD的性能优势最大化,Cisco HyperFlex超融合架构:

  • 保留SSD用于I/O密集型功能
  • 采用各种节省空间的技术,使得较小的物理空间能够存储大量的逻辑数据
  • 自动将“冷”数据或非常用数据迁移至机械硬盘
  • 高速、低时延、自动QOS保障的专用网络,保证了分布式存储对网络的苛刻要求

3.2、  冗余性测试

Cisco HyperFlex 是一个高度可用的横向扩展型系统,不存在单点故障问题。数据分别存储于节点内的各个硬盘以提高性能,并在集群范围内进行复制以便提高其可用性。因此,即使硬盘或整个节点出现故障,也能够保证虚拟机的高可用性(参见2.2。2章节测试用例)。

3.3、  可管理/易用性

HyperFlex提供一种非常直观的、基于Web的用户界面,使管理员能够完全掌控集群中的计算和存储资源。它将每台虚拟机映射至系统中的物理资源,使管理员能够轻松解决与虚拟机有关的问题。

HyperFlex 是一种即插即用的解决方案,其中含有运行大量虚拟服务器或虚拟桌面所需的全部硬件和软件。管理员能够在几分钟时间内将其设置完毕,并开始创建虚拟机。

时间: 2024-08-02 10:56:52

思科超融合测试 Cisco HyperFlex 超融合系统的相关文章

史上最强超融合入门干货:超融合与传统架构特性及收益详细对比

在IT基础架构领域工作有十年了,亲眼目睹和参与了上一代网络存储架构在中国的兴起和衰败.的确,新IT浪潮已经到来,超融合就是诸多风口之一,成为了近几年IT业界备受关注的话题.虽然超融合这个概念已经被厂商热炒了至少两年,但看到市场上依旧存在着很多模糊的定义和理解,所以想整理一些学习笔记和个人见解,希望这些干货内容能对想入门的朋友有所帮助 . 一.超融合的核心特征是什么? 首先大家需要有一个概念,我们看到的这些名词,事实上都是最早推行这些架构的厂商建立起来的,比如Nutanix最早推广的超融合这个概念

4790K风冷超频测试

一.配置 CPU:4790K 主板: 华硕Z97-K 内存: 威刚普条DDR3-1600 8G 显卡: 微星R7850 TF 2GD5 电源: 安钛克VP500 散热器: 大霜塔 硬盘: 希捷 ST1000DM003 1T 二.待机跑分 1.3DMark11 2.鲁大师 3.待机温度(大霜塔) 三.超频测试 1.默电(最大1.2v)4.7G 压力测试6分钟后的温度 圆周率100万跑分 象棋跑分 2.默电4.8G 温度与4.7G基本一致 待机温度 象棋跑分 默电在做压力测试时蓝屏,看来需要加些电压

一个超漂亮的Java版博客系统,内置14套皮肤,已经转化为标准的Eclipse项目,直接导入即可

原文:一个超漂亮的Java版博客系统,内置14套皮肤,已经转化为标准的Eclipse项目,直接导入即可 源代码下载地址:http://www.zuidaima.com/share/1550463745002496.htm MrZhao只分享精品,话不多说,直接上图      - 为了压缩文件我把WEB-INF下面的lib包打包放在网盘下载地址:http://pan.baidu.com/s/1hqqqWOc - 把lib解压进去以后项目直接导入Eclise即可运行 - 数据库Mysql,确保一个新

走近支付宝移动支付测试,了解思科安卓先进测试技术,与讯飞人共舞。

走近支付宝移动支付测试,了解思科安卓先进测试技术,与讯飞人共舞.还在等什么?!!!赶快加入讯飞测试技术嘉年华(报名地址: http://itest.iflytesting.com/).前20名报名者将有机会获得精美礼品,并且有机会与来自支付宝.思科的嘉宾进行face to face的交流.时不我待,快快打开你的IE.火狐.chrome.先到既是赚到.如果您愿意前来分享您的经验.您的技术,那么我们也欢迎您到这个舞台来一场个人秀(提交主题地址: http://itest.iflytesting.co

Cisco HyperFlex 多区域上联(Disjoint Networks Upstream)

Cisco HyperFlex 多区域上联(Disjoint Networks Upstream)Deploy Layer 2 Disjoint Networks Upstream in End Host Mode for HyperFlex一般意义上的HX平台是部署在大二层环境中,不同vlan跑不同的功能(data,mgt,vmotion,storage),但都在一个大二层,由于用户这里网络结构不是这样,该网络结构是将多个区域用防火墙严格隔离,割裂开,但却不能每个区域部署一套FI,要求FI上联

[原创]好买财富测试环境自动化发布部署系统实践

一  为什么要开发一套测试环境自动化发布部署系统? (1) 好买的交易系统越来越庞大,越来越复杂,仅搭建一套系统要涉及到50多件内容: (2)手工搭建测试环境容易出错,投诉较多,各业务方抱怨较多: (3)搭建测试环境效率低下,庞大的系统,旧的方式需要大约忙1天,有时出了问题时间会更长, (4)开发多分支并行开发,抢占市场,要求必须满足公司在快速开发和迭代测试,目前维护了16套环境,估计16年会更多: (5)  以前系统搭建,太依赖个人的经验,人员离职会造成非常大的瓶颈; (6)都是领导逼的,这年

星云精准测试有力提升金融复杂系统的测试能效

随着国内大数据.云计算.人工智能等新技术的发展,银行业的前中后台正面临着全面改造,金融科技是业务转型发展的一个核心发力点.金融行业信息系统集中度高.规模庞大.多系统之间关联性强.业务复杂.需求变化快,另外各种新旧系统错综交互,软件质量控制难度异常复杂.通过技术手段精准地追溯每一个数据路线,有效实现信息系统的高可靠性和易维护性,是金融业界共同的目标. 一.传统测试的局限  目前,在大部分金融机构中,主流的功能测试方法是黑盒测试辅之以一定量的自动化测试.由于自动化测试用例的维护问题较多,黑盒手工(功

浪潮VMware全闪存超融合,软硬一体打入关键系统

在2018年第三季度的Forrester Wave超融合基础架构(HCI)报告中,处于领导者象限的VMware获得了产品战略标准类别的最高分.Forrester认为,VMware vSAN在过去三年快速发展,不仅增加了丰富的功能,还与VMware软件更加紧密的集成在一起.对于VMware客户而言,vSAN是一条通往完善的VMware Cloud Foundation(VCF)之路,VCF是业经验证的全栈软件定义数据中心基础架构,可为私有云.公有云与边缘提供支持. 今天,由VMware vSAN支

对于业务中库存超卖测试

多并发时,用相应的锁方案保证库存不发生超卖.实现这个方案后,要有相应的场景测试方案. 很多时候,验证方案非常重要. java可以利用CountDownLatch测试多并发.CountDownlatch通常用于某个业务线程需要等待其它多个线程完成某个条件后才进行相应操作. CountDownLatch有countDown及await方法,分别对应减少计数器及当计数器大于0时阻塞当前线程.当计数量等于0时所有调用await方法且被阻塞的线程都被唤醒,然后进行相应操作. 此处用于模拟10个并发用户进行