何继盛:数据中心能耗与节能技术的发展

发表时间:2016年6月19日

来源:

——曙光信息股份有限公司数据中心事业部  何继盛  总经理

数据中心能耗与节能技术的发展

演讲视频链接下载:http://pan.baidu.com/s/1gf7ALP5 密码:mto1

大家下午好。今天在这跟大家分享一下曙光在数据中心节能领域,特别在数据中心的冷却技术我们最新的研究和我们的一些最新的技术。简单介绍一下曙光,曙光是1995年成立,属于中科院计算所下属企业,2014年在A股上市,曙光目前的业务覆盖了从产品角度,覆盖了数据中心的全部的产品线,包括从服务器、存储到基础设施,我是负责基础设施部门,曙光公司整个的业务领域是北京从云服务到整个的数据中心的IT设备全线的方案。

曙光最早是从高性能计算作为业务领域起家。在2005年开始,曙光开始关注到数据中心基础设施领域,为什么这样,因为大家知道高性能计算是IT应用密度非常大的环境,往往它对基础设施要求更加的超前,有更高的要求,而且同时随着IT的发展,曙光也看到IT设备的性能跟基础设施的关联度越来越高,进入这个领域并且进行研究,我所在的部门随之产生,随着几年的发展,曙光不断推出自己基础设施的解决方案,我们研究的核心对应我们刚才主要最初的进入这个领域初衷,我们研究的核心面向过高密度应用场景,提供高能效的,绿色的数据中心解决方案,这是我们这几年发展的核心领域。

所以谈到我们这个核心研发目标是数据中心制冷技术,这个是在我们整个数据中心研究里面非常关注的一个系统。中国数据中心确实这几年取得了非常迅猛的发展,同时带来能耗和需求量大幅度增加,第一数量的增加,整个的数据中心越来越多,另外我们也看到在中国数据中心在能耗方面还是有优化的空间和很大的提升的空间。聚焦到单体的数据中心,我们可以看到制冷系统,冷却系统占到了数据中心绝大部分的能耗,40%左右。这个能耗量甚至在某些数据中心已经超过了IT设备本身自己消耗掉的电力。对数据中心来讲,电费已经成为一个数据中心运维当中最大的成本。所以数据中心节能技术研究一定离不开数据中心制冷技术的研究。

 

在我们对数据中心制冷技术研究当中,我们把中国数据中心发展大概简单分为四个大的阶段,最早的大型的计算机,到后的塔式服务器,集中化更高的产品出现,直到2000年前后,机架式服务器应用,使得数据中心的建设,包括对IT设备形态发生变化,数据中心也发生很大变化。再到2010年后,云计算等等这些应用兴起,对数据中心的基础设施的要求有新的挑战和阶段。

 

那么相应的,在每个阶段数据中心都有一定的基础设施的要求,真正对数据中心冷却系统真正开始系统化、精细化的研究,在第三代数据中心,也就是机架式开始大规模应用的时候,我们看到在数据中心领域制冷系统的研究开始出现了很多很多的技术的创新和一些新的理念的推出。最典型的目前我们看到数据中心目前仍然在使用的制冷方式,就是第三代数据中心的集中的体现,最典型在第三代数据中心开始出现高架地板作为静压箱、冷却通道,对空调产生的气流开始进行约束和管理,我们的IT设备摆放开始出现冷通道、热通道等名词和理论开始出现。随着IT的形态和发展,第三代数据中心制冷解决方案又面临新瓶颈,主要来自于典型的密度提高,机架式刀片开始出现,单机柜密度不断提升,5810个千瓦不断提升。第三代数据中心模式是热岛,在局部,可能你机房整体的温度符合环境温度标准,但是在机架局部空间出现过热现象,特别典型出现机房离空调的远端,以及机架高端,因为采用高架地板出现风压问题,高端出现热岛现象。于是整个数据中心的制冷技术又往前进行了新的发展,在下一阶段的发展我们看到了出现了冷热通道封闭这样的方案,这个在典型的两代的制冷技术的解决方案,第一称为池级,这个相对于原来的模式,不管对热、冷气流进行精密管理,进而市场上越来越多出现了排级的方案,对机柜排单独进行气流封闭,前面有冷通道,后面是热通道,对冷或者热进行封闭管理,在排级进行封闭型管理,这个已经是发展到第四代目前在不同的技术有一些小的差别,但是大的整个制冷系统的方面看到了这样的典型的演进路线。当然这里面起到非常重要角色的空调,最早的原先的空调现在越来越多的看到了列式的空调,把我们空调产生热量的IT设备更加贴近,进而提高空调的制冷能力,同时减少冷空气在传输过程中的损耗,提升整个数据中心的能耗水平。我们看到结合今天主流的数据中心的制冷技术演进的路线,曙光从2005年开始研究,2007年我们推出相应的制冷解决方案,包括池级的和排级的,随着IT技术不断进步,包括刚才提到我们高性能计算领域,去年、今年,应用到高性能计算要做到30个千瓦,通过传统模式解决这么高密度的制冷,我们看到已经达到极致了。下一代的高性能计算单机柜会达到5060千瓦,这个时候在传统的模式已经没有办法解决这么高密度的散热,反过来意味着整个的数据中心的制冷模式面临一次突破,一定要有突破性的变化,技术变革,才有可能解决这么高密度的散热问题,同样,刚才在宏观的数据中心的领域,进入微观的,进入服务器内部看,CPU的散热量,最早的几十个千瓦到现在20纳米的100多个千瓦,未来到10个纳米甚至7个纳米工艺,单位集中越来越多的晶体管,带来的发热量更高,现在的散热片越来越大,CPU的进程怎么解决单位面积的散热?已经变成了对CPU性能发展之外,最大的困难。这些方面让我们意识到整个的数据中心制冷系统需要一些新的技术的突破和变革。

 

经过我们这个研究,包括这些年国内、国外诸多同仁共同研究,大家认同这个趋势,下一代的的制冷技术必须要由传统的以风,我所谓的风指不管我们的空调内部采用什么样的冷媒,但是机房空调把这个冷送给IT设备,送给IT服务器的电子元器件,最终冷媒是冷空气,必须由这段的冷进行革命性的突破。寻找一种更高冷却的冷媒对他进行制冷,才有可能实现更高密度制冷,同时实现数据中心的能耗大幅度的提升。

 

刚才介绍了这个就是我们所谓的液冷服务器概念。最后不管你的冷源,冷空气怎么产生,但是传统方案中,在最后的一米的距离通过空气传导给服务器,传导给电子元器件,液冷通过冷却的液体送到需要进行低温冷却的电子元器件。为什么我们一致认同液态冷却是未来下一代IT设备,数据中心的冷却的必然趋势,主要液体在热传导方面,跟空气相比,具有非常明显的优势,第一点,优势产生的来源在于冷却能力。空气是热的不良导体,液体的冷却能力是空气的10003000倍,冷媒的不同有不同的量级,最近的量级有千倍以上的差异,通过液体的类却真正实现对IT设备的全年的自然冷却,为什么能够实现这一点,一会在后面整个液冷,我给大家再做稍微详细的介绍,其他的当然是液态冷却带来的一些价值,比如低噪音,服务器的风扇,或者机房的空调的风扇大幅度降频,甚至消失,带来的优势就是低噪音等等。刚才我说到液态服务器国内、国外多年已经在研究,最早的研究是最终用户,类似于美国的军方,包括美国、日本、欧洲的也是高性能计算的用户,最早关注这个技术,也是因为传统的冷却技术不能满足IT设备、高密度计算的冷却要求,但是用户用定制化的方案而不是标准化解决。

 

最早作为厂商来讲,液冷方案是2010IBM推出过液冷的全冷板式。现在变成非常的热点,诸多厂商有自己的液态的机器。

 

国内在去年的6月份,曙光推出应该是真正意义上的标准产品化液态冷却液冷服务器,我们称之为TC4600ELP。我们来看一下我们这个液冷服务器的内部结构,传统的机箱,大家看到在CPU上面有铝制的散热片,原来通过铝制散热片把CPU内部的温度传导出来,通过服务器的风扇把热风吹到服务器的后端,把冷空气送到服务器上面,而在TC4600ELP这款产品当中,我们是把散热片去掉,直接采用黑色的冷板固定在服务器上面,冷板空心的里面是冷媒,目前我们在TC4600ELP里面有两种冷媒选择,一种是氟,一种是不导电的去离子水,这样直接将冷源送到了发热部件上,大家非常清晰的看到,是通过冷板直接把服务器的热量通过液体带走了,服务器整个发热量里CPU占到了60%,意味着60%的热量被液体直接带走,剩下的40%在这里面依然是传统的风冷模式,通过房间空调、列间空调等原有的机房空调把其他部件,比如硬盘、内存等不断的解决掉。

 

这个是我们整个液冷服务器,刚才是介绍液冷服务器内部结构,这个是一个液冷服务器整个的系统部署,前面我没有特别介绍每一代的数据中心发展的定义,第四代数据中心为什么叫做第四代,刚才说了基础设施和IT服务器关联越来越紧密,一个液冷服务器不再像原来那样剥离开的,液冷服务器一定是整个系统的部署,我们看到这个是服务器内部的冷板,贴在服务器刀片上面了,通过服务器机箱的水平分液单元,相当于给整个一个机箱服务器进行冷媒的分配,然后冷媒通过机后面有两个水管,通过垂直分液器(VCDU),进入下方的控制单元CDM,一个CDM控制单柜的液体分配,通过二次循环和室外冷却塔进行热交换,为什么说这个系统能够实现全年自然冷却?在我们这套系统的部署里面,我们设置了进水的冷水是35度,因为电子元件可接受的温度很高,CPU大概在90度,不能超过90度,正常50度是工作温度,所以在这个系统里面,设置冷水温度35度,出水45度,最终是CPU工作在50度左右这样一个非常稳定的工作温度,同样意味着35度的水是冷水,但是自然界来讲是一个常温水,在跟外面热交换的时候完全不需要压缩机,通过闭式冷却塔完全可以实现35度这样所谓的低温水,实现了全年的自然冷却。

 

这个是液冷服务器带来的优势,包括节能、60%不再使用压缩机,同时安全,保证IT设备本身,也保障了安全用电。通过这套冷却系统可以实现25-50%电费节约,同时单柜的密度几十个千瓦可以实现,也实现空间节省。
 


TC4600ELP是国内真正第一款标准化产品,很多厂商也在研发,真正能够做到成品化、标准化、产品化是第一个产品,目前来讲我们有几个亿规模的应用,这个是第一例大规模的应用,是中科院大气所地球系统模拟装置,到曙光参观可以看到这个玻璃的房子,里面有1000台刀片式的液冷服务器,在建筑方面也有创新的地方,采用立体化的结构,保证计算机之间有更快速的通讯,这个建筑共三层,是6米乘6米乘6米的立方体,整个的机房面积200平米,在这里面部署了不少于700千瓦的功率密度,相当于传统机房1500平米到2000平米,这就是刚谈到的能耗和空间的节约。

 

这个项目我们也申报了国家节能推广技术案例,发改委委派北京节能环保中心对我们案例进行了实际运行的测量,最终测量PUE结果是1.17,据我个人了解到的应该是可以讲创了国内的数据中心PUE稳定运行的新低。

 

最后再简单看一下这是我们另外一个正在研发当中的浸没式也冷服务器,刚才谈到的是冷板式,这个是浸没式,把服务器主板直接浸没到冷媒中,对所有电子元器件直接散热。这个产品在未来会跟大家见面。

 

我简单介绍一下我们在冷却技术方面的理念,欢迎大家指导,谢谢!

 

数据中心节能技术委员会为数据中心领域提供展示空间和交流平台

上一篇  严瀚:创所未有,节能典范—艾默生SDC2智惠之道

下一篇  国家节能中心高红:节能减排技术政策介绍