论文部分内容阅读
摘要:随着电子信息机房IT设备高密度的集成化,解决机房IT设备的散热及机房散热量日渐趋高的现象开始受到了各界强烈关注。作为一名电子信息系统机房的管理者和使用者,在我从业者这近十年间, IT设备的有效高效的散热,机房内得节能降耗状况一直不太理想,导致我们信息部门一直是整个集团的耗能大户,呼吁更多的专业供应商和专业人士来关注信息机房的节能降耗这一日益严峻的课题。
关键词:电子信息机房;PUE;冷池;节能降耗
中图分类号:TU831 文献标识码:A 文章编号:1007-9599 (2012) 13-0000-02
一、引言
随着电子信息机房IT设备高密度的集成化解决机房IT设备的散热及机房散热量日渐趋高的现象开始受到了各界强烈关注。作为一名电子信息机房的管理者和使用者,在我从业者这近十年间,几经中心机房的改扩建,在新办公楼内的规划、新建等工作,但是IT设备的有效高效的散热,机房内得节能降耗状况一直不太理想,导致我们信息部门一直是整个集团的耗能大户。现就借此文作为一个引子,谈一谈我的看法,以及我们目前的解决方法,呼吁更多的专业供应商和专业人士来关注信息机房的节能降耗这一日益严峻的课题。
二、电子信息机房的散热现状
电子信息机房的热量产生、散热等有很多方面,我在此就对大家都非常熟悉的三个方面展开详细的分析和论述。
(一)机房内IT设备的局部过热问题
造成机房内IT设备局部过热的原因有很多,但究其根本主要有以下三种:
1.机柜的排布
管理者为了美观和便于观察会将所的的机柜朝同一个方向摆放,如果按照这种摆放方式,机柜盲板有效阻挡冷热空气的效果将大打折扣。
2.IT设备摆放
随着服务器的小形化、高密度化以及刀片式服务器的产生,使服务器摆放的位置越来越不容IT管理者忽视。这些高功率设备的发热量比普通IT设备可能要高一倍或者更多,如果将这些高功率负载密集地摆放在一个机柜内,很人容易会出现一个高密设备群并形成一个巨大的发热群体,这种情况最容易导致数据中心出现局部热点。
3.冷热通道堵塞
一般机房多采用地板下走线(强电、弱电、侦测等),还有各种各样的保温等材料,这样难免会有各种凸起在架空地板下,阻挡冷热空气的循环,从而导致IT设备的局部过热。
(二)机房空调耗能大,普遍耗能比 PUE>2.5
PUE(PowerUsageEffectiveness,电源使用效率)值已经成为国际上比较通行的数据中心电力使用效率的衡量指标。PUE值是指数据中心消耗的所有能源与IT负载消耗的能源之比。PUE值越接近于1,表示一个数据中心的绿色化程度越高。
PUE = 数据中心总设备能耗/IT设备能耗,PUE是一个比率,基准是2,越接近1表明能效水平越好。
而我国目前大多数机房的PUE值基本上都在2.5~3.0之间,能耗的浪费及其严重。
首先为了消除机房内IT设备的局部过热,保护IT设备的正常运转,从而过多开启空调的数量将导致空调机组制冷效率低,造成制冷能耗升高。
其次冷热交换不充分和不均匀,制冷系统过剩运行严重,造成空调能耗升高,同时也造成了IT设备区域问题不见得很低,而机房内其他区域问题非常低,管理人员无法正常工作的局面。
另外机房局部温度过低,导致外界对机房的热辐射增加,增加了空调的负担。
(三)机房密度过低的问题
由于机房中冷风的分配不均而出现局部过热的问题,导致用户在机架上不可能、也不敢更多的增加IT设备,很多机架的设备不足3KW,从而导致机房密度降低。
三、我集团新建机房的节能降耗建设过程
(一)设计之初的想法
过去我们设计信息机房时,一贯是根据整个机房总的的散热量和散热面积的比例来计算(KW/M2),这样子计算其实非常不合理,真正需要冷量的地方是机架上的IT设备,而非管理人员临时工作的区域。因此在我们集团2008年大楼准备搬迁的时候,我就提出要按每个机架的功率(KW/rack)来计算,例如:在一个600mm宽度的42U的高密度服务器机架上最大满负荷时需要25KW 的电力功率,相当于需要25KW的制冷量并需要大约6000至7000m3/h 的风量来满足机架上服务器的散热需要。这样再以每个机架需要的最大功率乘以机房内所有机架的数量,基本可以得出一个初步的总的用电量,然后再结合其他设备的用电量即可汇总出机房的总耗电量。
(二)付诸实施的困惑及借鉴
但同时很严峻的问题又摆在了面前,如果机架内服务器设备或者交换机等设备太过于密集的话,热量会成几何倍数的增长,对机架的散热则更加难办,因此我和部门的同事在规划阶段就邀请了APC、LINKBAISC、爱默生等众多的知名供应商,考察他们提供的冷热通道遏制系统的整体解决方案,也到英特尔亚太研发中心有限公司、上海电信、建设银行数据中心等多家沪上知名企业公司的核心机房去实地考察。
其中最为印象深刻的是英特尔的数据中心机房,在英特尔公司近500平方米的大型机房内,用工业标准机柜分割成6个单元,每个单元由两排机柜(排间距约1.3米)面对面排列并在两端用防火材质构建防火门,从而构成6组密封的单元房。单元房机柜顶部建有类似大型酒店厨房间吸烟排烟用的收口型回风装置,回风装置通过镀锌薄钢通风管路与精密空调机组的进风口相衔接,在每个单元房外部的四周铺设开孔地板,机房精密空调所产生的下送式冷风在正压作用下从开孔地板下面向上吹出,机房内冷区温度在16度左右。冷风从开孔地板下面向上吹出后,因无处释放正压,只能被单元房内机架式服务器从正面吸入,带走服务器运行中产生的热量,经服务器后部排出之风已有余热(风温约23度),被单元房内的上部吸风装置吸收并经大型风管流回精密空调进风口,构成了机房内空调的冷风升温和电子设备排热降温的循环。
英特尔公司机房的特点可以概括为:在大型机房内部引入了冷岛区和热岛区的理念,精密空调机组输送到冷岛区的冷风被服务器吸纳后流入热岛区并经动力回收风管重新回流到精密空调机组。 (三)节能降耗机房的顺利建设
经多信息部门同事的内部多次交流,形成了借鉴英特尔公司机房设计理念的想法,达成了建设一个节能减排安全环保的高密度机房的共识。据此共识,我们形成了集团新大楼机房建设技术需求书。通过招标方式,机房建设中标公司根据我们制定的技术需求书的规定,在与机柜供应商的多次交流协商后,构思设计了机房的设计图。
建成后的集团信息中心机房,实用面积150平方米,就机房面积来讲不算很大。但是,我们认为信息技术发展已经进入虚拟化时代,机架式服务器、刀片式服务器和海量存储设备这类密集度很高的电子设备,在集团内大量部署。这类设备占用机柜空间少,对精密空调的制冷要求高。因此,机房面积小一些,既可少占用楼层空间,还可缩减精密空调作用区域,使空调的制冷效能全面转化为电子设备的排热,最终降低机房总体运营成本。
上面的合成图中,左边是机房概念设计图,右边是机房建成后的实拍图。
在长方型的机房有效区域内,共放置两排定制机柜(机柜深度达到1117毫米),每排机柜为14只,其中每排的第1只机柜作为UPS配电列头柜使用,每排其余13只机柜用于存放核心交换机和机架式服务器(包括刀片服务器和海量存储设备)。两排机柜面对面放置(排间距为三块标准地板),两排机柜的两边加装玻璃钢双开门,两排机柜的顶部加装钢化玻璃顶,通过机柜在机房内的摆放,构成一个密封单元。密封单元的底部窄长区域内铺设一排无孔和两排开孔的防静电机房地板,机房地板离楼层地面距离为500毫米,整个机房地板下部500毫米高的空间构成精密空调下送风的风箱区,由精密空调制冷产生的下送风,经此大风箱区域的流动后静压趋于均衡,再从带孔地板的孔中吹出,孔中吹出的冷风在上升过程中被机柜内服务器从正面吸收,带走服务器运行过程中产生的热量,再从服务器后部排风孔吐出,流入单元房外部区域,吸附了热量的空气在正压作用下回流到精密空调机组上部的进风口(实拍图中最远处三台精密空调,上部是进风口),构成了计算机网络机房内冷暖气流的循环。
我们概括集团机房的特点:两排机柜带帽装门封边构成冷岛区,冷岛区内冷风穿透电子设备带走热量进入热岛区,在正压作用下无路可走只能重新流回到精密空调机组。
我们集团机房与英特尔公司机房的共同点是都引入了冷岛区和热岛区的理念,两者之间的区别在于,前者把机房内机柜构成的单元内部定义为冷岛区,而后者把大型机房中各个单元的内部定义为热岛区。
四、集团新建机房使用过程中节能降耗效果评估
我们还是采用国际上比较通行的数据中心电力使用效率PUE值来进行节能降耗效果的初步评估。
世界最先进水平的机房PUE值约为1.7,我国的机房多数在2.5以上。经过我们工程师用智能电表的数据采样,集团新机房的总设备能耗约120KVA,IT设备能耗约63KVA,PUE略小于2,远低于国内的平均数。
同时,经过技术中心工程师的精心计算,新机房通过实施多种节能措施,每年可为集团节省电费40多万元。
关键词:电子信息机房;PUE;冷池;节能降耗
中图分类号:TU831 文献标识码:A 文章编号:1007-9599 (2012) 13-0000-02
一、引言
随着电子信息机房IT设备高密度的集成化解决机房IT设备的散热及机房散热量日渐趋高的现象开始受到了各界强烈关注。作为一名电子信息机房的管理者和使用者,在我从业者这近十年间,几经中心机房的改扩建,在新办公楼内的规划、新建等工作,但是IT设备的有效高效的散热,机房内得节能降耗状况一直不太理想,导致我们信息部门一直是整个集团的耗能大户。现就借此文作为一个引子,谈一谈我的看法,以及我们目前的解决方法,呼吁更多的专业供应商和专业人士来关注信息机房的节能降耗这一日益严峻的课题。
二、电子信息机房的散热现状
电子信息机房的热量产生、散热等有很多方面,我在此就对大家都非常熟悉的三个方面展开详细的分析和论述。
(一)机房内IT设备的局部过热问题
造成机房内IT设备局部过热的原因有很多,但究其根本主要有以下三种:
1.机柜的排布
管理者为了美观和便于观察会将所的的机柜朝同一个方向摆放,如果按照这种摆放方式,机柜盲板有效阻挡冷热空气的效果将大打折扣。
2.IT设备摆放
随着服务器的小形化、高密度化以及刀片式服务器的产生,使服务器摆放的位置越来越不容IT管理者忽视。这些高功率设备的发热量比普通IT设备可能要高一倍或者更多,如果将这些高功率负载密集地摆放在一个机柜内,很人容易会出现一个高密设备群并形成一个巨大的发热群体,这种情况最容易导致数据中心出现局部热点。
3.冷热通道堵塞
一般机房多采用地板下走线(强电、弱电、侦测等),还有各种各样的保温等材料,这样难免会有各种凸起在架空地板下,阻挡冷热空气的循环,从而导致IT设备的局部过热。
(二)机房空调耗能大,普遍耗能比 PUE>2.5
PUE(PowerUsageEffectiveness,电源使用效率)值已经成为国际上比较通行的数据中心电力使用效率的衡量指标。PUE值是指数据中心消耗的所有能源与IT负载消耗的能源之比。PUE值越接近于1,表示一个数据中心的绿色化程度越高。
PUE = 数据中心总设备能耗/IT设备能耗,PUE是一个比率,基准是2,越接近1表明能效水平越好。
而我国目前大多数机房的PUE值基本上都在2.5~3.0之间,能耗的浪费及其严重。
首先为了消除机房内IT设备的局部过热,保护IT设备的正常运转,从而过多开启空调的数量将导致空调机组制冷效率低,造成制冷能耗升高。
其次冷热交换不充分和不均匀,制冷系统过剩运行严重,造成空调能耗升高,同时也造成了IT设备区域问题不见得很低,而机房内其他区域问题非常低,管理人员无法正常工作的局面。
另外机房局部温度过低,导致外界对机房的热辐射增加,增加了空调的负担。
(三)机房密度过低的问题
由于机房中冷风的分配不均而出现局部过热的问题,导致用户在机架上不可能、也不敢更多的增加IT设备,很多机架的设备不足3KW,从而导致机房密度降低。
三、我集团新建机房的节能降耗建设过程
(一)设计之初的想法
过去我们设计信息机房时,一贯是根据整个机房总的的散热量和散热面积的比例来计算(KW/M2),这样子计算其实非常不合理,真正需要冷量的地方是机架上的IT设备,而非管理人员临时工作的区域。因此在我们集团2008年大楼准备搬迁的时候,我就提出要按每个机架的功率(KW/rack)来计算,例如:在一个600mm宽度的42U的高密度服务器机架上最大满负荷时需要25KW 的电力功率,相当于需要25KW的制冷量并需要大约6000至7000m3/h 的风量来满足机架上服务器的散热需要。这样再以每个机架需要的最大功率乘以机房内所有机架的数量,基本可以得出一个初步的总的用电量,然后再结合其他设备的用电量即可汇总出机房的总耗电量。
(二)付诸实施的困惑及借鉴
但同时很严峻的问题又摆在了面前,如果机架内服务器设备或者交换机等设备太过于密集的话,热量会成几何倍数的增长,对机架的散热则更加难办,因此我和部门的同事在规划阶段就邀请了APC、LINKBAISC、爱默生等众多的知名供应商,考察他们提供的冷热通道遏制系统的整体解决方案,也到英特尔亚太研发中心有限公司、上海电信、建设银行数据中心等多家沪上知名企业公司的核心机房去实地考察。
其中最为印象深刻的是英特尔的数据中心机房,在英特尔公司近500平方米的大型机房内,用工业标准机柜分割成6个单元,每个单元由两排机柜(排间距约1.3米)面对面排列并在两端用防火材质构建防火门,从而构成6组密封的单元房。单元房机柜顶部建有类似大型酒店厨房间吸烟排烟用的收口型回风装置,回风装置通过镀锌薄钢通风管路与精密空调机组的进风口相衔接,在每个单元房外部的四周铺设开孔地板,机房精密空调所产生的下送式冷风在正压作用下从开孔地板下面向上吹出,机房内冷区温度在16度左右。冷风从开孔地板下面向上吹出后,因无处释放正压,只能被单元房内机架式服务器从正面吸入,带走服务器运行中产生的热量,经服务器后部排出之风已有余热(风温约23度),被单元房内的上部吸风装置吸收并经大型风管流回精密空调进风口,构成了机房内空调的冷风升温和电子设备排热降温的循环。
英特尔公司机房的特点可以概括为:在大型机房内部引入了冷岛区和热岛区的理念,精密空调机组输送到冷岛区的冷风被服务器吸纳后流入热岛区并经动力回收风管重新回流到精密空调机组。 (三)节能降耗机房的顺利建设
经多信息部门同事的内部多次交流,形成了借鉴英特尔公司机房设计理念的想法,达成了建设一个节能减排安全环保的高密度机房的共识。据此共识,我们形成了集团新大楼机房建设技术需求书。通过招标方式,机房建设中标公司根据我们制定的技术需求书的规定,在与机柜供应商的多次交流协商后,构思设计了机房的设计图。
建成后的集团信息中心机房,实用面积150平方米,就机房面积来讲不算很大。但是,我们认为信息技术发展已经进入虚拟化时代,机架式服务器、刀片式服务器和海量存储设备这类密集度很高的电子设备,在集团内大量部署。这类设备占用机柜空间少,对精密空调的制冷要求高。因此,机房面积小一些,既可少占用楼层空间,还可缩减精密空调作用区域,使空调的制冷效能全面转化为电子设备的排热,最终降低机房总体运营成本。
上面的合成图中,左边是机房概念设计图,右边是机房建成后的实拍图。
在长方型的机房有效区域内,共放置两排定制机柜(机柜深度达到1117毫米),每排机柜为14只,其中每排的第1只机柜作为UPS配电列头柜使用,每排其余13只机柜用于存放核心交换机和机架式服务器(包括刀片服务器和海量存储设备)。两排机柜面对面放置(排间距为三块标准地板),两排机柜的两边加装玻璃钢双开门,两排机柜的顶部加装钢化玻璃顶,通过机柜在机房内的摆放,构成一个密封单元。密封单元的底部窄长区域内铺设一排无孔和两排开孔的防静电机房地板,机房地板离楼层地面距离为500毫米,整个机房地板下部500毫米高的空间构成精密空调下送风的风箱区,由精密空调制冷产生的下送风,经此大风箱区域的流动后静压趋于均衡,再从带孔地板的孔中吹出,孔中吹出的冷风在上升过程中被机柜内服务器从正面吸收,带走服务器运行过程中产生的热量,再从服务器后部排风孔吐出,流入单元房外部区域,吸附了热量的空气在正压作用下回流到精密空调机组上部的进风口(实拍图中最远处三台精密空调,上部是进风口),构成了计算机网络机房内冷暖气流的循环。
我们概括集团机房的特点:两排机柜带帽装门封边构成冷岛区,冷岛区内冷风穿透电子设备带走热量进入热岛区,在正压作用下无路可走只能重新流回到精密空调机组。
我们集团机房与英特尔公司机房的共同点是都引入了冷岛区和热岛区的理念,两者之间的区别在于,前者把机房内机柜构成的单元内部定义为冷岛区,而后者把大型机房中各个单元的内部定义为热岛区。
四、集团新建机房使用过程中节能降耗效果评估
我们还是采用国际上比较通行的数据中心电力使用效率PUE值来进行节能降耗效果的初步评估。
世界最先进水平的机房PUE值约为1.7,我国的机房多数在2.5以上。经过我们工程师用智能电表的数据采样,集团新机房的总设备能耗约120KVA,IT设备能耗约63KVA,PUE略小于2,远低于国内的平均数。
同时,经过技术中心工程师的精心计算,新机房通过实施多种节能措施,每年可为集团节省电费40多万元。