存储阵列和SAN网络的典型部署

在企业内部做IaaS,共享存储资源池是必然要求,对于大部分企业来讲,其实并不需要太多新技术,传统的SAN存储网络在当下是绝对能够非常良好的支撑IaaS私有云的,存储阵列和SAN交换机就够了,至于该买什么牌子,同档次里找便宜的吧,不差钱的话,推荐EMC的存储解决方案。这篇将以EMC VNX和博科交换机为例介绍下典型的共享存储资源池。

1 存储阵列部署

对大多数企业而言,存储厂商提供的中端存储设备(即双控制器存储阵列,比如EMC的VNX)是可以满足所有需求的,每个控制器上配置8个8G的光纤端口即可。磁盘的数量根据数据量确定即可,如果是做共享的存储资源池,只要使用EMC的默认FAST VP的SSD、SAS、NL SAS的磁盘比例即可,RAID也就使用FAST VP的默认设置即可。也许有人会想按照业务和技术属性(Winodws/Linux/AIX,Oracle/SQLServer/DB2/MySQL/Sybase,VMware,NAS)去分析IO,然后确定RAID方案,但是负责任的说,当做共享资源池时,那些分析都没用,分析到最后,就会发现还是都RAID5吧。这个部分事实上不需要太多的工作,存储供应商会把存储本身的连线都处理好,需要规划的仅是如何做RAID和资源池,建议就告诉他们:要一对儿一模一样的存储阵列,每台上用FAST
VP,默认设置就行,两台之间做MV,再加上一对儿一模一样的光纤交换机(每台上的端口数按照预计的客户主机数量+8)。

2 光纤网络连接

光纤网络的连接是需要确定的问题,典型的也是适用于大多数场景的连接拓扑如下:

两台光纤交换机的0-7口保留给存储阵列,0-3口给存储1,4-7口给存储2,每台存储的控制器A和控制器B的端口保留前三个,最后一个用于MirrorView直连。按照上图举例,如果一台客户主机有两块光纤卡,分别连接到了交换机1的39口和交换机2的39口,则可交换机配置中配置(39,0),(39,1),(39,4),(39,5)两个zone,最终这台客户主机将连接存储1的A3、B4、A4、B3四个端口和存储2的A3、B4、A4、B3四个端口。当在存储阵列上,配置好主机和storage
group后,在客户主机上可识别到每台存储各4条链路,可使用PowerPath或OS自带链路聚合软件聚合成一个设备使用。

3 客户主机配置

共享资源池管理员最常做的就是添加新的客户主机了,对于主机的操作包括安装HBA卡驱动(linux不用)、主机兼容性测试(其实做不做都行)、HostAgent安装(已保证阵列能识别主机信息)、PowerPath安装(汇聚4条链路成一条伪链路)。这些操作都是些标准步骤,营养不大,这里不凑篇幅,主要写两个注意事项:

  • 设置磁盘起始偏移量

在OS进行磁盘初始化时,默认的偏移量是有文件系统决定了,通常不会是整个block,这会导致IO骑着block的边界进行,会损失一点儿点儿性能(~2%~3%),所以可以指定下磁盘偏移量:

Windows

<span style="font-family:SimSun;font-size:12px;">C:\>diskpart
Microsoft DiskPart version 6.0.6001
Copyright (C) 1999-2007 Microsoft Corporation.
On computer: ASPIRINGGEEK
DISKPART> list disk
  Disk ### Status Size Free Dyn GPT
  -------- ---------- ------- ------- --- ---
  Disk 0 Online 186 GB 0 B
  Disk 1 Online 100 GB 0 B
  Disk 2 Online 120 GB 0 B
  Disk 3 Online 150 GB 150 GB
DISKPART> select disk 3
Disk 3 is now the selected disk.
DISKPART> create partition primary align=1024
DiskPart succeeded in creating the specified partition.
DISKPART> exit</span>

Linux

 

  • lvm与powerpath的配置问题

由于第2部分中介绍的连接方式会在客户主机上为同一块磁盘产生5条链路(包括4条物理链路和1条伪链路),我们想使用的是其中的伪链路,如果直接使用Linux文件系统,则直接选择伪设备即可,可是lvm无法识别这些设备的关系,会当成5个设备来处理,而且会随机的选择使用哪个设备。因此需要编辑/etc/lvm/lvm.conf,用过滤器过滤掉4个物理设备,然后重启OS,在lvm.conf里找到如下行:

filter = [ "a/.*/" ]

将其注释掉,根据fdisk -l命令的输出,添加另一行filter,只准许本地磁盘设备和伪设备,拒绝其他所有设备,例如:

filter = ["a|/dev/cciss/c0d0|", "a|/dev/emcpowera|", "r/.*/"]

时间: 2024-10-12 15:46:35

存储阵列和SAN网络的典型部署的相关文章

Linux网络服务11——部署YUM仓库服务

Linux网络服务11--部署YUM仓库服务 一.YUM简介 YUM的前身是YUP(Yellow dog Updater)Yellow dog Linux的软件更新,最初由TSS公司(Terra Soft Solutions,INC.)使用Python语音开发而成,后由杜克大学(Duck University)的Linux开发队伍进行改进,命名为YUM(Yellow dog Updater , Modified) 借助于YUM软件仓库,可以完成安装.卸载.自动升级rpm软件包等任务,能够自动查找

(1)SAN网络故障分类和定义

(1)按故障对象不同分: ip SAN : ip无法连同 端口限制 vlan设置不合理 交换机端口故障 网卡故障 fc san : 端口模式不匹配 端口速率不匹配 兼容性 sfp光功率不足 光纤或端口物理故障hba卡驱动异常 (2)按故障性质分 物理故障:硬件设备或者物理设备出现异常,无法正常工作.逻辑故障:设备逻辑状态异常,列如驱动或模块加载异常.配置异常:链路通信参数(速率 模式)配置不合理导致异常 (3)san网络故障诊断整体流程 ip san检查存储iscsi端口状态检查交换机端口状态和

使用WDS部署好网络安装后部署PE安装系统

系统环境:windows2012 这种方法会碰到的问题:当PE镜像没有要安装系统的网卡驱动时,就无法使用网络安装了 所使用的软件 链接: https://pan.baidu.com/s/1pLUIlXD 密码: k7hf 所使用的软件如下图: 为了系统镜像也能使用网络加载,因此需要下载一个能联网的pe镜像(我所使用的是上图中的win7pe.iso).但是这个win7pe.iso有些功能不全,比如没有diskgenius分区工具,没有winntsetup安装工具,因此需要把上图中的XMPE2012

Caffe-python interface 学习|网络训练、部署、测试

继续python接口的学习.剩下还有solver.deploy文件的生成和模型的测试. 网络训练 solver文件生成 其实我觉得用python生成solver并不如直接写个配置文件,它不像net配置一样有很多重复的东西. 对于一下的solver配置文件: base_lr: 0.001 display: 782 gamma: 0.1 lr_policy: "step" max_iter: 78200 #训练样本迭代次数=max_iter/782(训练完一次全部样本的迭代数) momen

DHCP FailOver 主备故障转移+多网段网络环境系统部署

一.DHCP主备部署 1.准备事项 (1)2台物理服务器(做主备的原则是两台系统从根上彻底分开才能达到其中一个故障而影响另一个) (2)操作系统CentOS6.5/6.7 (3)需安装DHCP和DNS服务 (4)2台DHCP服务同属一个网段 (5)两个系统时间必须同步 2.安装 (1)yum -y install dhcp.x86_64 bind bind-chroot bind-utils  两台分别都安装 (2) <1> vim /etc/dhcp/dhcpd.conf #编辑dhcp配置

小型园区网络的基本部署

实验要求: 一.设备管理 1.依据图中拓扑,为不同设备定义主机名. SW#conf t SW(config)#hostname SW1 SW1(config)# 2.全局关闭域名解析. SW1(config)#no ip domain lookup 3.Console 和 VTY 线路下关闭线路超时并开启输出同步. SW1(config)#line console 0 SW1(config-line)#logging synchronous 关闭输出同步 SW1(config-line)#exe

Cobbler实现自动化无人值守网络批量安装部署Linux系统

一.Cobbler(直译为补鞋匠) 使用 Cobbler,您无需进行人工干预即可安装机器.Cobbler 设置一个 PXE 引导环境(它还可使用 yaboot 支持 PowerPC),并控制与安装相关的所有方面,比如网络引导服务(DHCP 和 TFTP)与存储库镜像.当希望安装一台新机器时,Cobbler 可以: 1.使用一个以前定义的模板来配置 DHCP 服务(如果启用了管理 DHCP) 2.将一个存储库(yum 或 rsync)建立镜像或解压缩一个媒介,以注册一个新操作系统 3.在 DHCP

centos 6.5环境利用iscsi搭建SAN网络存储服务及服务端target和客户端initiator配置详解

一.简介 iSCSI(internet SCSI)技术由IBM公司研究开发,是一个供硬件设备使用的.可以在IP协议的上层运行的SCSI指令集,这种指令集合可以实现在IP网络上运行SCSI协议,使其能够在诸如高速千兆以太网上进行路由选择.iSCSI技术是一种新储存技术,该技术是将现有SCSI接口与以太网络(Ethernet)技术结合,使服务器可与使用IP网络的储存装置互相交换资料. iSCSI是一种基于TCP/IP 的协议,用来建立和管理IP存储设备.主机和客户机等之间的相互连接,并创建存储区域网

Docker网络解决方案-Flannel部署记录

Docker跨主机容器间网络通信实现的工具有Pipework.Flannel.Weave.Open vSwitch(虚拟交换机).Calico实现跨主机容器间的通信.其中Pipework.Weave.Flannel,三者的区别是: Weave的思路 在每个宿主机上布置一个特殊的route的容器,不同宿主机的route容器连接起来. route拦截所有普通容器的ip请求,并通过udp包发送到其他宿主机上的普通容器. 这样在跨机的多个容器端看到的就是同一个扁平网络. weave解决了网络问题,不过部