正在被巨大数据中心吞噬的全球电力,谷歌脸书和比特币的“源”罪
|
今天,全世界有大约400个超大规模数据中心,其中许多数据中心为小型企业或大学提供服务,而这些企业在过去曾拥有自己的服务器。现在这些企业的用电消耗已经占据全球数据中心用电量的20%。 IEA表示,到2020年,超大规模中心将占其中的近一半(参见下图“超大规模的转变”)。
发热和散热 一旦超大规模的数据中心尽可能多地承担了负载,进一步提高效率会变得更加艰难,但企业还在努力。一种新兴的管理技术可以确保服务器尽可能多地全速运行,而其它服务器则可以关闭而不是处于闲置状态。 Facebook发明了一个名为Autoscale的系统,这一系统可以减少在低流量时间内需要打开的服务器数量。Facebook在2014年的报告中指出,在试验中这套系统可以节约用电达到10-15%。 超大规模数据中心削减PUE的一个重要方法是解决冷却问题。在传统的数据中心,空调制冷所产生的花销占总共能源账单的40%。 使用蒸发水来冷却空气的冷却塔造成了另一个环境问题:2014年美国的数据中心总共使用了大约1000亿升水。摆脱压缩冷却空调和冷却塔有助于节省能源和水。 现在,比较普遍的一种非常简单的解决方案:将数据中心建造在凉爽的地点,利用空气吹入其中来降温。 这些中心不必坐落在冷到能结冰的区域:俄勒冈州 的Prineville足够凉爽,可以利用所谓的“空气冷却”,许多其它数据中心的位置也是如此,在瑞士苏黎世的IBM研究中心物理学家Ingmar Meijer如此解释。
在这个位于俄勒冈州的谷歌数据中心,蓝色管道供应冷水,红色管道返回需要被冷却的温水。 相比空气来说,自来水是更好的热导体。通过允许使用温水冷却数据中心,冷却系统中生产和再循环的能量消耗会更少。 即使在温带气候下,温水冷却已经成为管理产生大量热量的高性能计算机的事实上的解决方案。美国能源部实验室和位于德国Garching的巴伐利亚科学院拥有的SuperMUC超级计算机都在采用这一方案。温暖气候的数据中心有时也投资于温水冷却系统,例如eBay位于亚利桑那州凤凰城的Project Mercury数据中心。 对于高密度,高功率的数据中心,最有效的方法是将服务器浸入不导电的植物油或矿物油中。 Facebook在2012年尝试将其运用在服务器上,作为一种让服务器运行更快却不会过热的散热方式。 Meijer说,目前浸入式冷却的维护还十分复杂,是一个非常棘手的专业领域。 2016年,谷歌调整旗下的DeepMind人工智能(AI)研究团队接手一项任务,调整其数据中心冷却系统使其能更好得适应天气和其他因素的影响。 谷歌表示,在测试中,该团队将其冷却能源费用降低了40%,并且“产生了该网站有史以来最低的PUE分数”。今年8月,谷歌宣布已将一些数据中心的冷却系统转由AI算法调整。 (编辑:PHP编程网 - 金华站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |



