Facebook的首个数据中心碰到了有讽刺意味的问题:一朵真正的云在IT房间内形成并且淋湿了服务器。
Facebook的首家数据中心位于俄勒冈州的普莱恩维尔,虽然Facebook之前用“湿度问题”之说暗示过这一问题,但该社交网络基础设施负责人Jay Parikh在周四对国外媒体说,在2011年夏季的几分钟的时间里,Facebook的数据中心出现了两个云:一个为社交网络提供支持,另一个则向数据中心淋水。
“我接到一个电话,‘jay, 数据中心里有一朵云’,Parikh说道。“‘你什么意思,外面吗?’‘不,里面。”当时人们都吓坏了。“数据中心内在下雨”,他解释道。
问题的起因是数据中心使用了大胆设计的减少冷却装置的空调系统。传统设施使用电力密集型、真膨式冷却装置来维持持续的低温,与此不同的是,消费者互联网巨头如Google、Facebook及其他公司使用了采用外部空气的有水珠的建筑设施。
数据中心内部形成雨云的原因
在普莱恩维尔的数据中心首次夏季运行时,一个该设施建筑管理系统出现的问题导致了热通道涌出不断循环的高温和低湿度空气,虽然水基蒸汽冷却系统设法让这些空气降温——这意味着当该股空气返回服务器的冷通道内时,已经被压缩得过于潮湿了。
就如Facebook在那时平淡无奇地记录道:
这造成了冷通道供应的空气温度超过80华氏度、相对湿度超过95%。部署在数据中心内的开放计算服务器对这些极端变化做出了反应。许多服务器重启,少数几个服务器因电源供应设备故障而自动关闭。
几台服务器彻底罢工是因为它们的前置电源供应短路了。Parikh说,Facebook数据中心因Facebook的服务器受不可抗拒的物理定律影响而发出的噼啪响声,这一现场持续了几分钟。Facebook吸取了这个教训,现在为自己的服务器设计了周身有密封装置的能源供应设备,或者就如Parikh称呼的是“一个橡胶雨衣”。“这是措施之一。当你能达到百分之一百的冷却效果,从功效角度看是很惊人的,但是必须覆盖的范围却更大了。”Parikh说。
该公司还改善了其建筑管理系统,确保此问题不会再次发生。目前,Facebook的数据中心在整个云计算行业内是最具效能的比特机房之一,在某种意义上甚至好过Google自己的设施。
从那时算起,Facebook的数据中心再也没有出现过其他类似的云。