可能你们不知道,双11中最骚的操作不是在买买买的过程中。
而是阿里在保障你们买买买的准备中…….
相信大家都遇到过这样的问题,看视频、打游戏时手机常常会发烫,烫手没啥,大不了当暖宝宝,但是烫了的手机会越来越卡,卡到扑街时啥呀干不了了。
集结了大量服务器的数据中心和手机一样,在处理数据时温度也会上升,而出于节约能源、防尘防损、便于管理等多种考虑,目前的主流服务器都倾向于密集部署在封闭空间内,遇到平时温度上升时,常规的处理方法是:
打空调……
但每年双11可不是“平时”,整个活动期间有海量的数据需要处理,随着处理需求的急剧增加,集结大量服务器的数据中心会散发出远超平时的热量。
这时如果空调不给力不能保障散热,轻则服务器过热关机,重则——服务器烧了......
这种感觉就像你在放肆挥刀剁手时,刀断了……
既然常规的空调降温无法满足双11服务器的降温需求,所以阿里另辟蹊径,选择了另外一种降温方式。
那就是:
不好意思,放错图了,正确的是这样的:
这就是阿里保障大家双11可以安然剁手的神器:液冷服务器“麒麟”
简单来说,“麒麟”就是把把整台服务器浸在液体里循环冷却,不用打空调也能“凉的快”,能源使用率(PUE)逼近了理论极限值1.0。
上面那个图就是小型液冷机组外观
PUE值是指数据中心消耗的所有能源与IT设备负载消耗的能源之比。PUE值越接近1.0,表示数据中心的能效越好,绿色化程度越高,也就是越节约能源。在传统数据中心里,差不多有一半的电能是“打空调”消耗掉的。
当然,直接给“麒麟”浇水肯定是不行的。这个方案的关键之一,就是绝缘冷却液。这种特殊液体完全绝缘且无腐蚀性,化学性质十分稳定。
即使浸没元器件20年以上,也不会对服务器元器件产生任何负面影响。
阿里巴巴麒麟液冷数据中心 https://www.zhihu.com/video/1040908363571240960
同时由于冷却液隔绝了空气、水汽、灰尘、风扇振动等环境影响,服务器的寿命还能大幅提高。此外,由于大型制冷设备,“麒麟”能够节省空间75%以上,单位体积内的计算能力比过去提升了10倍。
“麒麟”的原貌大概是这样的:
虽然,在全球技术前沿,“麒麟”的核心技术——全浸没式液冷已经不算是什么“黑科技”,但是,从目前公开的信息看,“麒麟”之前并无服务器集群部署先例。所以“麒麟”还算是前无古人的。
可能你们会问,冷却液在冷却过程中也会逐渐变热,那该怎么处理,所以,给你们展现“麒麟”的第二个骚操作:
它的位置在张北
位置在张北
在张北
张北
……..
为什么在张北呢,因为那里:
曾经有人形容,张北春天的大风,就像后妈的手,大耳光往死里呼。如此大的风对于冷却液的冷却有很大帮助。
现在,在位于大草原边上的阿里巴巴张北数据中心,就部署着本次天猫双11全球最大的液冷服务机群和风冷服务机群,堪称“天猫双11技术之肺”。
在这一过程中,阿里巴巴进行了浸没液冷的新材料技术研究,液冷服务器架构设计以及液冷数据中心整体方案重构。由于这里气温低、空气干净,数据中心内部大面积采用水侧自然冷技术,尽可能用自然冷源为服务器降温。
据悉,这里全年大约只有15天的时间需要开启传统压缩机空调,仅制冷能耗就可以降低59%。阿里张北数据中心的设计年均PUE(能源使用效率)仅为1.25,最低可达1.13。此外,数据中心周围还部署了大量的太阳能电站和风电站。
在十几年前,我们的手机只能发短信、打电话和玩像素版的“贪吃蛇”,今天,智能手机功能早已今非昔比。这背后,是算力的急速膨胀,也是能耗的急剧膨胀。我们手里常备充电宝还时不时没电的智能手机,可能就是这个严峻问题的一个缩影。
数量的增长,在解决算术倍数的问题同时,很可能带来的是几何倍数的问题。为了增加算力,越来越多的服务器将会产生巨量的废热;为了维持温度,PUE(能源使用效率)就会急速降低,计算将难以为继。就像我们无法靠堆叠电池战胜智能手机的续航之难,我们也必然无法靠堆叠服务器来突破算力的“能耗之墙”。
或许,把服务器大面积成规模“泡在水里”,建设更绿色更高算力密度的全新数据中心,是一条可行之路。未来,如果能耗的问题如果可以得到解决,哪怕只是一定程度的缓解,计算能力将会迎来下一次“工业革命”式的飞跃。这不仅仅是省电费,随着突破“能耗之墙”,更高主频、更多核心处理器、更大规模的超级计算机将成为可能。
也只拥有这样的超级算力,我们才能合理想象:氢聚变的人造太阳的熔炉里燃烧,星际战舰向星辰大海挺进......