南京机房节能方案

机房属于能耗密集型产业,从网站到网上银行,现代机房几乎运行着一切信息应用,因而其对电力的消耗增长显著,大规模数据中心机房更是能耗巨大,机房能耗成本往往占据数据中心机房总体运营成本的50%以上,现在的数据中心已经开始意识到能耗的问题,但如何解决却颇为头痛,作为数据中心的管理者其实还可以找寻一些省钱的节能方法,

1、选用低能耗的设备
机房的能耗大户是服务器、数据存储器等数据处理设备,数据设备的用电量大,就需要更多的UPS来供电,UPS在电能转换中需耗费一定的能量,电能在传递分配中也有损失。数据设备的用电,90%以上最终转变为热量,就需要更多的空调来散热。据统计,数据设备的功耗每增加100W,在电能转换和分配传递上会损耗10~20W,空调制冷增加功耗120W,因此数据设备的能耗被放大了数倍。在满足业务需求或同样处理存储能力的设备中,选用低功率无疑是节能减排的关键。

2、改善冷却
企业应该更加关注如何在数据中心中利用有效的冷却策略。通过重新调整机架内的消隐板以确保适当的空气流动,再次整理电缆以重新释放阻塞的气流,并更换低效的UPS电源系统,去除不必要的热源,有助于冷却房间,从而确保对热通道/冷通道遏制有很好的策略。

3、及时关闭不必要的用电设备
大多数的数据中心都是通过远程进行管理,进入到数据中心设备区的情况比较少,而我们进入数据中心机房时经常会发现,灯火通明,而这些机房几天也可能不会进来一个人。大量的照明灯不仅造成能源的浪费,而且会增加机房的温度。所以出进入机房时应该及时将照明灯关闭,这样也可能为数据中心节省不少的费用。现在有些声控系统可以在人进入到机房中时,自动开启照明设备,在人离开的时候自动关闭照明设备,这种方式更加智能化。除了照明设备,数据中心里的设备外接显示器,用电跳线架,如果没有承载业务都应该及时关闭。有的数据中心新购设备往往在机房里空载运行数月,这大大造成了浪费,应该减少测试时间,及时更新,带新业务运行。

4、防止跑冒滴漏
机房密封不严,隔热效果不好,也是能源消耗的重点。机房的门窗应该密闭并用良好的隔热材料,墙壁、地板、天花板应该进行隔热处理,特别是南方地区,夏季高温期长,外墙传递的热量不可小看。这就是有些机房冬季没有问题,夏季温度偏高的主要原因。在不同季节,主设备的发热量通常不会差别太大。

5、充分利用自然散热
北方的冬天零下20~30℃,而数据中心里却要保持在22℃,巨大的温差让空调系统长期高负荷运行,可以适当地开启门窗,扩大通风,通过自然冷却数据中心温度,通过对出入气流的隔离引导,可以充分利用外界的冷空气将数据中心内部产生的热量带走。数据中心的空调耗电是非常大的,其每停转一分钟都可以节省几度电能。已经有不少国外企业将数据中心建在了天气寒冷的冰岛,或是离海水近的地方,都是希望通过自然将温。有的数据中心甚至声称可以做到零能耗散热,这的确是一个降耗的办法。将正在运行的数据中心都搬到温度适宜的地方不太可能,但可以通过周期性地开启门窗,将外界的冷空气引入,通过自然降温。

6、设置架空地板,根据机架热负荷调节地板送风口的开度,能够降低整体送风量的20%,节省空调风机能耗。

本文来自:南京仲子路科技有限公司

原文地址:https://blog.51cto.com/14643691/2473443

时间: 2024-08-02 22:39:39

南京机房节能方案的相关文章

创业公司办公网络安全访问机房网络方案

[背景] 办公网络使用ADSL上网,无固定IP.IDC机房有固定的IP.为了安全,服务器的公网ip只开放了应用的端口,基于这种情况,要访问机房,使用VPN是一个较好方案. 但是给公司每个员工分一个IDC的vpn帐号是一个苦逼的活儿,因为每个客户机会遇到各种问题,vpn本来就不是一个非常稳定的东西. 那么就想到,只要哥哥使用一台linux服务器拨号,之后用这个机器做网关,做snat那么就能让办公网络访问线上服务器了^_^ 这个方案已经做出来,实际运行一段时间了,经历了检验,今天成文,和大家分享.

floyd算法 青云的机房组网方案(简单)

青云的机房组网方案(简单) 青云现在要将 nn 个机房连成一个互相连通的网络.工程师小王设计出一个方案:通过在 nn 个机房之间铺设 n-1n−1 条双向的光纤,将所有的机房连接.可以假设数据在两个机房之间的光纤传输需要 11 单位时间.每个机房 ii 有一个初始值 a_ia?i??,当两个机房的初始值之间互质时,我们认为这两个机房之间的传输性能是非常重要的.请帮小王计算出所有数值互质的机房对之间的传输时间之和. 输入格式 第一行输入一个正整数 nn,第二行输入 nn 个正整数 a_1...a_

微模块化数据中心机房技术方案分享

模块化机房早些年就一直在提出,但在实际应用中一直没有得到广泛的推广,如今机房数据中心越来越集中,数据越来越集中,分布式,云存储,虚拟化,云计算,区块链,大数据,智能AI,无人驾驶等等都是目前比较新颖的词汇及未来发展的趋势,前端的应用及数据交付最终都离不开数据中心机房的硬件保障,一个整洁的,智能可管控的数据中心机房显得尤为的重要,所有的数据集中交付,难免不了运行维护,故障诊断,安全分析,数据可控,安全可观,随着数据量的不断增加,运维的成本也会随之而来,微模块化这个时候能有效的解决目前这个阶段需要迫

机房搬迁方案

第1章    设备迁移方案 1.1   迁移流程及顺序说明 以上为系统迁移的流程图,各单位数据中心分系统均按该流程进行,做到系统迁移的有序进行. 1.2   迁移实施前期准备 迁移的准备工作是整个迁移工作的极其重要的部分,充分的做好本次迁移的准备工作,是保证迁移工作顺利进行的首要条件,并可有效的减少迁移过程中的事故隐患,以下将对迁移前的准备工作做详细描述. 2.1        迁移设备确认 在此过程中需和用户方确认迁移的网络设备.服务器.存储等硬件设备及其辅助设备和材料,并对需迁移的设备进行分

etcd跨机房部署方案

使用ETCD做为元数据方便快捷,但是谈到跨机房灾备可能就迷糊了,我们在做节日灾备的时候同样遇到了问题, 通过查阅官方文档找到了解决方案,官方提供make-mirror方法,提供数据镜像服务 注意: make-mirror 的使用需要依赖于API版本3, 使用API2的无法通过该工具做数据同步 有关ETCD的编译安装这里就不在说明了, 不明白的可以参考官方说明:https://github.com/coreos/etcd 1. 启动集群1 #!/bin/bash nohup etcd --name

kubernetes 跨机房部署方案

由于业务需要分散在多个机房,如果使用一个deployment部署,则实现流量拆分.切换等,会十分不方便.故考虑将服务按照区域进行拆分 1.通过node label 定义服务器的区域,例如:kubectl label nodes vm101 region=bjkubectl label nodes vm102 region=shkubectl label nodes vm103 region=mirror 每个区域,一个deployment 和svc,deployment通过node的label

青云的机房组网方案(中等) 计蒜客

分析:树形dp dp[i][v]代表以i为根的子树中权值为v的节点到i的路径和 c[i][v]代表以i为根的子树中权值为v的节点个数 对于一个节点 有很多孩子分支,从最左边的分支开始,算跨过当前根节点的每次分支算一次最后再算当前根节点i与它子树互质的 每次算的方法就是先算出不互质的,然后总的减 复杂度O(n*m*sqrt(m)*k*2^k) m=max(a[i]),i属于1到n #include <cstdio> #include <cstring> #include <al

青云的机房组网方案(简单+普通+困难)(虚树+树形DP+容斥)

题目链接 1.对于简单的版本n<=500, ai<=50 直接暴力枚举两个点x,y,dfs求x与y的距离. 2.对于普通难度n<=10000,ai<=500 普通难度解法挺多 第一种,树形dp+LCA 比赛的时候,我猜测对于不为1的n个数,其中两两互质的对数不会很多,肯定达不到n^2 然后找出所有互质的对数,然后对为1的数进行特殊处理.(初略的估计了下,小于500的大概有50个质数,将n个数平均分到这些数中,最后大概有10000*50*200=10^7) 对所有的非1质数对,采用离

绿色数据中心节能,值得探究的八大秘密

随着企业信息化建设的迅速发展,数据中心建设越来越重要,将直接影响企业信息系统的建设和应用效果.根据IDC的估算,从运行成本控制的角度看,在IT行业中,能源消耗成本已经达到企业硬件采购成本的25%.而数据却正以52%的复合年均增长率不断攀升.当企业面对不断变化的业务压力,以及呈指数级快速增长的数据时,需要对数据中心环保.节能方面的特性予以足够的考虑和重视. 如何在确保数据高度安全和高度可靠的前提下,最大限度地保证企业在数据中心建设中能够减少浪费和降低无效投入,打造一个真正"绿色节能"的数