下载此文档

pub解决方案.doc


文档分类:IT计算机 | 页数:约6页 举报非法文档有奖
1/6
下载提示
  • 1.该资料是网友上传的,本站提供全文预览,预览什么样,下载就什么样。
  • 2.下载该文档所得收入归上传者、原创者。
  • 3.下载的文档,不会出现我们的网址水印。
1/6 下载此文档
文档列表 文档介绍
摘要:针对国内数据中心PUE值偏高问题和新一轮节能改造的需求,业内用户和专家纷纷提出多种
解决方案,本文作者深入分析数据中心常规制冷解决方案中地板下送风和冷热通道模式隐含的问题,提出
通过配用通风强化防静电地板等简单易行的方法,来解决由于刀片服务器、虚拟化等技术的应用所带来的
数据中心高热密度负荷问题及整体能耗飙升等系列难题。
一、冷却成为数据中心最有价值计划
随着电子信息系统机房IT设备高度的集成化,其能源效率偏差以及机房散热量日渐趋高的现象开始受
到了各界强烈关注。
据权威部门统计,我国高端服务器集中的通信行业耗电在2007年就已达到200亿度以上,信息产业俨
然已经成为一个高能耗行业。而服务器又是现在数据中心机房的核心,并且24小时运行。以我国服务器保
有量为200万台,按每台服务器平均功耗400瓦,每年的耗电总量约为80亿千瓦时。
根据中国电信节能技术蓝皮书所载, 一般机房内芯片级主设备1 W
-,而其中机房空调冷却系统的耗电量约占机房总能耗的40%。由
绿色网格组织(Green
Grid)所提出的电力效率指标P U E 数值( Power Usage
Effectiveness)是通过计算机房的总能耗与所有IT主设备能耗的比值而得出的。故可估算上述机房的PUE
-。由此推算,我国数据中心机房消耗到空调冷却系统的能量至少为84亿千瓦时。这也
就意味着为服务器提供冷却的机房空调系统能耗大约能达到我国空调设备每年总能耗1/4!
据称:,中国Hp的新一代数据中心体验中心机房夏
-。这一指标如何实现?
据美国电力转换公司APC最近的统计数据显示,数据中心的冷却成本大约占总能源账单的50%。而国际
组织Uptime
Institute指出,由于数据中心机房内气流不适当,用于冷却的冷空气有60%都浪费了;数据中心的过度冷
却(overcooling)差不多达到实际需求的2倍,目前多数机房存在过度冷却问题,相应的机房空调机组耗
能也比设计工况增加耗电50%以上,最终造成机房居高不下的高额运行费用。
故此——优化数据中心冷却是排在第一位的最有价值的绿色计划!
二、数据中心高效节能冷却解决方案
由于现代电子信息系统机房中的空调负荷主要来自于计算机主机设备、外部辅助设备的发热量,其大
约占到机房空调总负荷的80~97%;而在服务器、存储、网络等主设备中服务器的份额又大约占到设备散热
量的80%。所以随着服务器集成密度的持续增高,服务器机柜设备区就成为了机房内主要的热岛区域。从
机房基础架构而言,国家标准《电子信息系统机房设计规范》GB
50174-2008规定:“、设备热密度大、设备发热量大的电子信息系统机房宜采
用下送风空调系统。”而下送风空调系统是将抗静电活动地板下空间作为空调系统的送风静压箱,空调机
组由通风地板向机柜、设备等热负荷送风。可是机房内空调冷却系统的送风按照流体力学伯努利原理所陈
述的气流特性——“风速大的压力小”表明,受此特性制约的空气流会呈现靠近空调机组的通风地板

pub解决方案 来自淘豆网m.daumloan.com转载请标明出处.

相关文档 更多>>
非法内容举报中心
文档信息
  • 页数6
  • 收藏数0 收藏
  • 顶次数0
  • 上传人zbfc1172
  • 文件大小35 KB
  • 时间2018-06-24