PVS让存储颤抖,系列博文之四:PVS的写缓存新技术之XenApp方式实测篇

XenApp运行环境

XenApp 6.5运行在Windows 2008 R2上

和运行VDI的测试类似,XenApp的测试方式如出一辙。LoginVSI还是设置为中等负荷,使用同样的用户帐号设置,也是同样的用户配置文件设置。不过用户配置文件我们使用的是优化了的配置文件管理。另外,XenApp虚拟机一般来说数量较少而内存较大,所以我们侧视了几种Cache in RAM with Hard Disk Overflow的大小,包括1GB、3GB以及12GB的内存,测试结果在下面。

XenApp 6.5运行在Windows 2008 R2上

我们继续使用Hyper-V主机,和上面的VDI测试场景一样。主机配置如下:

  • 四核超线程CPU,32G内存,Hyper-V平台;
  • Hyper-V 2012 R2
  • 一块专用的7200转SATA 3硬盘(带64M缓存),用户存放XenApp虚拟机的写缓存;
  • 2个Windows 2008 R2平台的XenApp 6.5虚拟机,配置如下:
    • 4个vCPU,14GB内存
    • 60个LoginVSI发起的会话(每虚拟机30秒)

测试场景1:PVS XenApp Target Device的RAM Cache设置为1GB

这次测试我们配置LoginVSI每30秒钟发起一个会话,登录持续时间30分钟。


虚拟机数量


登录持续时间


全部IO读写


IOPS


IOPS


IOPS


读写比例


60个


30分钟


每虚拟机
19687


10.9


0.1


10.8


1% / 99%

从上面的数据看到30个用户的登录过程的平均IOPS开销少于11个IOPS,要知道这个数据仅仅比XenApp虚拟机在启动阶段的峰值IOPS开销5个IOPS只打了一点点。

下面是稳定状态的数字:


虚拟机数量


会话持续时间


全部IO读写


IOPS


IOPS


IOPS


读写比例


60个


45分钟


每虚拟机
16411


6


3.7


2.3


61% / 39%

在45分钟之内的稳定状态下的IOPS的平均开销是6个,这就意味着每个XenApp虚拟机的开销是3个IOPS,而每个用户的开销是0.1个IOPS。

这个结果对于只设置了1GB缓存的14GB内存的XenApp虚拟机来说是非常有震撼力的。在测试的XenApp的峰值点的时候,LoginVSI启动了30个激活有效状态的中等负荷的会话在同时运行,虚拟机仅仅使用了10GB多一点的内存。所以我们决定增加RAM Cache到3GB并且重新运行测试。

测试场景2:PVS XenApp Target Device的RAM Cache设置为3GB

这次测试和刚才的测试使用完全相同的配置,除了LoginVSI发起会话的时间改为了20秒钟一次(上面是30秒钟一次)。


用户数量


登录持续时间


全部IO读写


IOPS


IOPS


IOPS


读写比例


60个


20分钟


1673


1.4


0.1


1.3


7% / 93%

下面是稳定状态的数字:


用户数量


会话持续时间


全部IO读写


IOPS


IOPS


IOPS


读写比例


60个


45分钟


7947


2.95


0.05


2.9


2% / 98%

只设置1GB缓存的XenApp虚拟机所产生的IOPS结果已经让我们很兴奋了,然而增加到3GB的缓存还能减少更多的IOPS需求。我们能为XenApp虚拟机在30个用户连接的状态下平均只有2个IOPS。

上面还只是一个实验室里的Hyper-V的测试环境,在用户的生产环境下更大规模的XenApp会表现如何呢?

XenApp 6.5 2008R2运行在VMware vSphere 5.5上

  • 48核心的AMD CPU,512GB内存;
  • NFS LUN连接到SAN
  • vSphere 5.5
  • 10个2008R2平台上的XenApp 6.5虚拟机,配置如下
    • 6个vCPU,48GB内存
    • 写缓存磁盘放在NFS LUN上
    • PVS 7.1标准镜像文件,设置RAM Cache为12GB(PVS运行在单独的主机上)
    • 用户配置文件使用UPM优化和文件夹重定向策略;

在这次测试中我们在服务器上运行了10个XenApp虚拟机,每个虚拟机配置了48GB的内存,PVS的RAM Cache设置为12GB。我们发起了300个LoginVSI中等负荷的会话,这样每个虚拟机能承载30个用户的会话。在LoginVSI上配置每用户启动间隔为8秒钟,这样整个启动时间可以控制在40分钟左右。下面是测试结果。


用户数量


登录持续时间


全部IO读写


IOPS


IOPS


IOPS


读写比例


300个


43分钟


18603


7.2


0.1


7.1


1% / 99%

下面是稳定状态下的数字:


用户数量


会话持续时间


全部IO读写


IOPS


IOPS


IOPS


读写比例


300个


45分钟


16945


6.27


0.02


6.25


1% / 99%

从上面的数字可以看出来,登录过程和稳定状态的过程都是相似的,跨越10个XenApp虚拟机的300个用户的两个阶段都是在7个IOPS左右,这比每个XenApp虚拟机分配1个IOPS还要少。很显然这些数字表明在PVS配置的RAM缓存中的数据完全没有溢出到磁盘中。

PVS让存储颤抖,系列博文之四:PVS的写缓存新技术之XenApp方式实测篇

时间: 2024-10-12 07:41:48

PVS让存储颤抖,系列博文之四:PVS的写缓存新技术之XenApp方式实测篇的相关文章

PVS让存储颤抖,系列博文之三:PVS的写缓存新技术之Win7桌面实测篇

在Hyper-V 2012 R2平台上的PVS 7.1 RAM Cache 256M方式发布的Windows 7 VDI桌面 备注:以下测试和上面的MCS环境的测试是在同一个硬件平台上完成. 四核超线程CPU,32G内存,Hyper-V平台: 一块专用的7200转SATA 3硬盘(带64M缓存),用户存放Windows 7虚拟机的写缓存: Windows 7 X64虚拟机配置:2 vCPU,2.5G内存: PVS 7.1标准镜像,RAM Cache设置为256MB(PVS在单独的主机上): 用户

PVS让存储颤抖,系列博文之一:PVS的写缓存新技术

实现桌面虚拟化的障碍来自于哪里?你可以列举出很多因素,包括实施的复杂性,要替换掉前端PC,PC使用人员惰性对项目的抵触等等,但是更重要的是他的成本在首次购置时超出了一台PC的价格. 桌面虚拟化整体项目的成本不外乎是软件.硬件以及服务.其中软件包括虚拟化软件的License和微软相关软件的授权License,硬件一般包括服务器.存储和网络交换设备等.一般来说硬件成本占整个桌面虚拟化成本的超过60%,甚至更高.在硬件成本中存储的成本又是最高的,有统计数据表明硬件成本中超过一半是共享给了共享存储. P

PVS让存储颤抖,系列博文之五:PVS的写缓存新技术之总结篇

总结和参数推荐 从上面大量的测试结果中我们可以看出来,新的PVS的写缓存技术对于存储读写显著减少可以大量消除你去购买昂贵的SAN 存储的必要性,无论你是用于XenApp还是池化桌面都是完全适用.PVS的这个特性产生的原因其中之一就是因为它改变了I/O写入磁盘的模式.一个XenApp或者是一个VDI传统上都是发送大部分的4K大小的随机写操作到磁盘中,对于硬盘来说这是最吃力的大小,这也是为什么VDI方式对SAN产生压力的主要原因.当配置了Cache in RAM with Hard Disk Ove

PVS的写缓存新技术把虚拟桌面的IOPS需求下降99%

在过去的多年当中,硬件成本一直是VDI项目的噩梦.往往是为了达到满足Windows7/Windows Server操作系统所需要运行的最小的IOPS的需求,用户不得不去采购昂贵的存储设备,或者因为预算紧张只能忍痛割爱:即使是鼓起勇气采购桌面虚拟化也是选择小范围试点:同时很多时候,项目是和硬件一起打包招标的,这就导致虚拟化软件往往只在整体项目预算中占很小一个比例,经常是失去了话语权.而系统集成商出于各种原因往往会推荐很高档次的存储设备,而事实上即使是在PVS的新Write Cache技术出来之前,

Provisioning Services入门到精通系列之一:PVS前期规划

鉴于PVS这么强大及在企业中应用非常广泛的产品,而且网上这方面的文档也很稀少,所以将撰写ProvisioningServices入门到精通系列博文,后期再通过51CTO博客制作PVS专题,这也即将是我在51CTO博客中的第4个专题了, 另外之前的3个专题链接如下,供大家参考和学习:   Office 365实用详解 http://blog.51cto.com/zt/679 XenApp_XenDesktop7.6实战系列 http://blog.51cto.com/zt/671 XenServe

PVS写缓存容量设计和部署位置的考虑

提示:这篇文章是本人在2011年11月5日有感而写的一篇电子邮件,因为其中的内容会在即将发表的一篇新博文被引用,故重新贴于此处.由于是近三年前的内容,技术也在不断进步,其中的部分内容已经不再适合于现在,仅作了解技术发展之用. Citrix Blog经常会有一些Blog写的很有深度,适合于高手:也有一些Blog善于归纳,适合经验总结.今天看到一篇博客就属于后者,讲解PVS写缓存的容量大小设计和部署位置的考虑,供大家参考. PVS WriteCache Sizing & Considerations

HDFS HA系列实验之四:HA+Federation

接触了Spark也快有半年了,版本从0.8.0到现在的1.0.0SNAPSHOT,从头到尾被spark这个优秀的框架深深吸引,也为scala的优雅所折服.4.19日"2014 中国Spark技术峰会"召开,可以看出随着Spark技术的完善,越来越多的企业已经开始使用或开始关注Spark的发展了.回顾学习过程,觉得很有必要整理一份学习路线,对所学的内容加以沉淀,同时也为同行作为参考. 因为Spark1.0.0即将发布,增加了很多特性,所以决定修改以前的博文,全都采用Spark1.0.0,

Innodb物理存储结构系列2 行记录格式

前一篇讨论了Innodb system,表空间,文件的关系及数据结构,这一篇记录下Innodb行记录的格式. 前提: 1. server层和innodb层都有自己对于record的记录格式,需要进行转换. 2. 物理文件上的记录存储,需要内存中的数据结构进行对应(任何数据都需要在内存中进行处理),进行存取的转换. 1. 测试case: create table `pp` ( `id` int(11) default null, `name1` varchar(100) default null,

Innodb物理存储结构系列1

本篇先介绍 下Innodb表空间,文件相关的内存数据结构. 1. 数据结构 Innodb的tablespace和文件的关系,是一对多的关系,先来看三个结构体 1. fil_system_struct: 表示Innodb的表空间内存cache,innodb一共包括两类tablespace,即 #define FIL_TABLESPACE 501 /*!< tablespace */ #define FIL_LOG 502 /*!< redo log */ 而fil_tablespace有包括了两