EMC VMAX的磁盘构成,fast policy(重要)

首先是流程,

不同种类的磁盘(sata,fc,flah)->disk group->raid->DATA volume->thin pool->TDEV and BCVDEV (lun)

然后细看:

1) 不同种类的磁盘叫做disk,这是可见的物理硬盘,见下图:

con 112 92代表disk的个数,flag的I代表disk internal to the arrary, F代表FC盘,E而且speed是0代表是EFD类型盘,也就是常说的没有机械臂的固态硬盘,EntERPrise Flash Drive (EFD),也称为 Solid State Drive (SSD)。

2)这些不同的硬盘形成disk group, disk group的成员是disk.

3) 每一个disk经过raid之后会形成DATA volume和two-mirror的GK盘,这些是真正的存储数据用的,DATA volume可以认为是physical disk的一部分,大小小于disk,如下图:

能够看到279140MB分出了4个raid5的volume.

4)Data volume会组成pool,pool的成员是volume。

5)从pool里分出的13.5GB的TDEV和BCVDEV(lun)。

***********************以上就是从disk到lun形成的过程**********************************

关于fast policy:

fast policy是一个算法是bound在SG上面的,作用:

1)monitor与host之间的I/O,计算response时间,如果I/O不是很频繁,会把数据移动到sata盘上,反之会移动到fc或者flash盘上,这个移动过程是在操作端看不到的,比如给一个host的sg中的lun为0000和1111,移动之后lun还是0000和1111,但是指向的DATA volume成了其他disk的。

lun只是一个pointer,指向在disk的data, lun和DATA的volume的mapping关系才是真正反映data在哪里的。

时间: 2025-01-02 17:34:49

EMC VMAX的磁盘构成,fast policy(重要)的相关文章

一图详解EMC与HP产品对比 合并或造噩梦!

大数据在线深度分析:随着惠普宣布分拆成HP Enterprise和HP Inc.两家公司,关于HP Enterprise和EMC计划合并的消息又开始在市场中流传.EMC和惠普都拥有着广泛的企业级产品线,假如二者最终结为连理,那么彼此存储产品线的重叠或将造成难以想象的整合噩梦,新公司的管理者们可能会为产品线的整合和取舍花费巨资和大量的精力.下图是EMC与惠普企业级主要产品线详细对比图,读者或许可从中体会到强拧的瓜到底甜不甜. 首先让我们来看看两家公司存在较大竞争的产品: ·  高端存储阵列,EMC

EMC FC AX-4存储崩溃,raid5硬盘损坏的数据恢复过程

故障描述: 北京某医院EMC FC AX-4存储崩溃,由于RAID5阵列中出现2块硬盘损坏,而此时只有一块热备盘成功激活,因此导致RAID5阵列瘫痪,上层LUN无法正常使用,整个存储空间由12块1TB STAT的硬盘组成的,其中10块硬盘组成一个RAID5的阵列,其余两块做成热备盘使用. 由于前两个步骤并没有检测到磁盘有物理故障或者是坏道,由此推断可能是由于某些磁盘读写不稳定导致故障发生.因为EMC控制器检查磁盘的策略很严格,一旦某些磁盘性能不稳定,EMC控制器就认为是坏盘,就将认为是坏盘的磁盘

VMAX New San creation

Storage GUI操作 创建IG 需要server的wwwn号,两个HBA卡,如果是cluster的话,需要四个. 创建PG 需要storage前面板的port名. 创建SG 需要lun的id, 根据需求创建多个dg,每个dg里多个device,每个divice就是一个lun, std和bcv都要有,一样数量,bind进pool. 创建Masking View 只需要一个名字. 创建fast policy 关联到SG Backup server操作 创建DG symdg create plm

EMC CX4-480数据恢复案例

EMC做为存储界的领军品牌,其存储产品可谓是人尽皆知啊!并且EMC自己的存储系统以及它自己的硬件在存储领域中都是领先的.但这还是不能百分之百保证用户数据的绝对安全,因为用户的误操作以及硬件的老化都会导致用户重要的数据丢失.而发生这些故障之后只能找专业的数据恢复公司做数据挽救工作.作者最近就处理过一起EMC CX4-480因磁盘故障导致存储不可用的案例,见下文. 一位上海的客户描述说他们有一台EMC CX4的存储服务器,因为硬盘出现故障,导致整个存储阵列瘫痪.整个LUN是由7块1TB的硬盘组成的R

EMC存储Raid故障数据分析报告

一.故障描述用户的EMC FC AX-4存储出现崩溃现象,整个存储空间由12块1TB STAT的硬盘组成的,其中10块硬盘组成一个RAID5的阵列,其余两块做成热备盘使用.由于RAID5阵列中出现2块硬盘损坏,而此时只有一块热备盘成功激活,因此导致RAID5阵列瘫痪,上层LUN无法正常使用.二.检测磁盘由于存储是因为某些磁盘掉线,从而导致整个存储不可用.因此接收到磁盘以后先对所有磁盘做物理检测,检测完后发现没有物理故障.接着使用坏道检测工具检测磁盘坏道,发现也没有坏道.三.备份数据考虑到数据的安

这种方式解决EMC存储崩溃RAID离线问题,简单又高效

故障描述:由于RAID5阵列中出现2块硬盘损坏,而此时只有一块热备盘成功激活,因此导致RAID5阵列瘫痪,上层LUN无法正常使用,整个存储空间由12块1TB SATA的硬盘组成的,其中10块硬盘组成一个RAID5的阵列,其余两块做成热备盘使用.由于前两个步骤并没有检测到磁盘有物理故障或者是坏道,由此推断可能是由于某些磁盘读写不稳定导致故障发生.因为EMC控制器检查磁盘的策略很严格,一旦某些磁盘性能不稳定,EMC控制器就认为是坏盘,就将认为是坏盘的磁盘踢出RAID组.而一旦RAID组中掉线的盘到达

full decommisson of JDC- windows meta disk

这一篇基本包含了所有步骤和详细命令: 首先JDC和GDC decom的不同如下: 1)datalist的目录不同,JDC在/etc/opt/omni/server/datalist,datalist 以jobcode命名 GDC在 /omni_shared/etc_opt_omni_server/datalist, datalist以host name 命令 2) JDC不删除IG PG SG, 只是重命名,fast policy 改为n/a.GDC则是都删除. 再说一下windows serv

OpenStack 2014.1(Icehouse) 更新说明

OpenStack 2014.1(Icehouse) 更新说明 1.综合升级说明 ?   Windows安装包应使用PBR 0.8版本,以避免发生bug1294246 ?   log-config选项被重命名为log-config-append, 该选项现在用于增加任意指定的配置,而不是像现在这样覆盖其他选项.(https://bugs.launchpad.net/oslo/+bug/1169328, https://bugs.launchpad.net/oslo/+bug/1238349) ?

full decommisson of GDC

full decommisson 的操作集中在三个平台, 1 backup server 2  VMAX GUI 3 FC switch 先说一下总体的思路: 1)首先需要在bankup server上中止std 与 bcv的clone关系: 2)在vmx GUI上删除masking view; 3)  在vmx GUI上删除MV下的IG, PG; 4)在vmx GUI上删除fast policy, 如果分配了: 5)在vmx GUI上removeSG下的volume; (unmap, 切断vl