★ IDC栏目导航

※IDC知识库搜索

IDC网络运营

more

当前位置: 服务器托管 > IT学院 > 网络管理 >

散热挑战加大 液体制冷重回数据中心(2)

向模块化方向发展 近年来的另一个发展方向是模块化、完成密封的服务器系统开始流行,这些系统经常都整合了液冷单元。比如“集装箱”式计算系统,

向模块化方向发展

近年来的另一个发展方向是模块化、完成密封的服务器系统开始流行,这些系统经常都整合了液冷单元。比如“集装箱”式计算系统,如SUN公司的Modular Datacenter S20 (即原来的Blackbox),以及Rackable System的ICE Cube和 Verari的 Forest 。微软近期则宣布正在美国芝加哥地区投资5亿美元,建设一个可以容纳150-200个“集装箱”(称为C-blocks)的大型数据中心,每个这样的“集装箱”包含1000-2000台服务器。

另外,通过使用APC或Liebert的一些产品,类似上述方法也可以在现有的建筑屋中实现。比如,去年斯坦福大学工程学院高性能计算中心要安装一台拥有1800颗CPU核,计算能力达到每秒14万亿次的超级计算机。

计算中心主任Steve Jones说,“学校的数据中心只能给我们提供大约每机柜5KW的电力和相应的散热设备,但我们需要实现更高的计算密度,大约是每机柜20KW,因此学校的机房没法满足我们的需求。”

Jones没有浪费时间和金钱去新建什么数据中心,而是接管了一个没怎么得到充分利用的计算机实验室,然后使用 APC的InfraStruXure 系统,该系统在机柜中集成了供电和散热单元。然后由学校后勤部门负责把水管和电线铺好,由APC、戴尔和Clustercorp工程师组成的项目小组负责安装机柜和服务器。从设备到达现场,直到集群投入使用,总个过程只花了11天。

CDW Berbee在扩展其1.2万平方英尺的数据中心时,也采取了类似的办法。为了消除机房中的热点,CDW Berbee安装了8个20KW的Liebert XDH 散热器和一个160KW的Liebert XDC 冷却装置。

Rasmussen说,“我现在所有的系统都运行很正常。在大多数情况下,我们都把机房温度控制在22摄氏度。”

McFarlane说,“我处理过一些小型的数据中心,大约有20-30个柜子,对这种规模的数据中心来说,完全用液态机柜是很有意义的。但对于拥有成百上千个机柜的大规模数据中心来,我们今天还需要比这更好的解决方案。”

试试打开窗户

虽然人们习惯于把服务器封闭在一个房间里,但相反的做法也开始出现。比如,ESTECH International的Millennium Series Chiller Optimizer使用室外空气来减少机房对制冷剂或空调的依赖。这些节热器会监控室外和室内的环境变化,并决定可以用多大比例的室外空气来帮助机房达到最优的散热效率。

Sorrell说,“如果从机房回收来的空气非常热,这样相比下,直接使用室外的空气也许更有效。你可以选择在使用室外空气时让制冷站保持运行,或者当室外空气温度低很多时,可以把制冷站关闭,节省更多费用。”

他谈到,室外空气质量通常也足以用在数据中心,何况它还要经过一层过滤。同时使用室外空气也提供了一种备份的散热方案。在北半球高纬度地区,如果你的制冷站出了问题,你任何时候都可以使用室外空气。即使室外气温达到了32摄氏度,数据中心设备至少在1-2个小时内不会瘫痪。


北京双线机房 北京双线服务器 北京双线主机托管 北京双线托管 服务器托管 托管服务器
关于我们| 招聘信息| 联系我们| 付款方式| 网站地图 |友情链接 | 云计算服务平台 | 在线工单系统
咨询热线:010-82894410/82894420  7×24小时技术支持:400-000-3721
传真:010-82894410转607  客服传真:010-82894410转607   京ICP证090528号 京ICP备09042719号 公安局备案编号:1101083278 
Copyright© 2006-2010 东方瑞庭(TopServers) 版权所有