阿里巴巴技術在官方微博發(fā)布了一組照片,以此回應在4月1日愚人節(jié)提及的“麒麟”計劃。據(jù)證實,該麒麟計劃實為業(yè)界首批浸沒液冷服務器集群,通過液冷而不是常見風冷的方式為服務器集群降溫,最終其PUE值可接近1.0,達到了世界領先水平。
阿里技術的微博這樣寫道,“這是阿里巴巴又一黑科技產(chǎn)品,將創(chuàng)造多個業(yè)界記錄,支撐阿里巴巴‘NASA’行動計劃”。照片顯示,放置在樓頂?shù)募b箱里擺滿了印有阿里LOGO的黑色金屬箱,以及在透明玻璃下箱體內(nèi)部的線纜、銅管和高密服務器節(jié)點。
經(jīng)官方正式確認,4月1日愚人節(jié)提及的“麒麟”計劃是技術研發(fā)成功后的一個小插曲。該項目負責人阿里巴巴服務器產(chǎn)品高級專家熾平表示,這些照片背后是浸沒液冷服務器集群,PUE(能源使用效率)逼近1.0。
阿里巴巴重構液冷服務器透過阿里云推廣為普惠技術
浸沒液冷是最近幾年備受業(yè)界關注的新型散熱技術,尤其在SC14全球超級計算大會上,來自國內(nèi)外的多家服務器企業(yè)均展示了在浸沒液冷散熱上的產(chǎn)品,大幅提高了業(yè)界對液冷的關注度。
但遺憾的是,受限于技術實現(xiàn)的難度,目前參與浸沒液冷服務器設計的企業(yè),對浸沒液冷的應用也僅局限于單機測試、單機展示階段,從目前公開的信息看,并無服務器集群部署先例。
浸沒液冷服務器集群部署一直未實現(xiàn)的主要原因,在于浸沒液冷解決方案相比風冷是一種全新的變革,需要具備從服務器到數(shù)據(jù)中心整套解決方案的架構創(chuàng)新和重構設計的能力。
“阿里巴巴進行了浸沒液冷的新材料技術研究,液冷服務器架構設計以及液冷數(shù)據(jù)中心整體方案重構”。熾平表示,目前阿里巴巴已經(jīng)在整機柜服務器技術規(guī)范上形成了原創(chuàng)設計思想積累,在結(jié)合自身需求以及在自研數(shù)據(jù)中心的積累后,快速設計出符合自己需求的浸沒液冷服務器整套解決方案,并進行集群化實踐。
據(jù)悉,阿里巴巴對于液冷方案貫徹了系統(tǒng)化設計思路,除了硬件外,同期還設計了一套適合浸沒液冷的監(jiān)控管理系統(tǒng)。
除了應用于自身業(yè)務場景外,浸沒液冷的成套先進技術也將率先應用于阿里云數(shù)據(jù)中心,通過阿里云對外服務來實現(xiàn)技術的普惠應用。據(jù)了解,浸沒液冷服務器將在高主頻計算領域發(fā)揮重要價值,也將因此大大節(jié)約能源,實現(xiàn)綠色計算。
PUE無限逼近1.0可達理論極限值
對于行業(yè)內(nèi)最關心的液冷服務器PUE數(shù)值,阿里巴巴給出了一個瘋狂的數(shù)字——逼近1.0。
PUE值是指數(shù)據(jù)中心消耗的所有能源與IT設備負載消耗的能源之比。PUE值越接近1.0,表示數(shù)據(jù)中心的能效越好,綠色化程度越高,也就是越節(jié)約能源。
阿里巴巴浸沒液冷服務器采用了3M氟化液液體,全環(huán)境無風扇無振動設計,達到卓越散熱冷卻效果。同時由于沒有空氣,水汽,灰塵,風扇振動等環(huán)境影響,元器件可靠性也大幅提升。
近年來阿里巴巴一直致力于綠色數(shù)據(jù)中心的技術創(chuàng)新,實現(xiàn)對能源的節(jié)約。2015年投入運營的華東某數(shù)據(jù)中心采用深層湖水制冷,年均PUE低于1.3。近日由阿里云對外開放服務的華北3數(shù)據(jù)中心則充分利用環(huán)境優(yōu)勢,大面積采用新風自然冷和水側(cè)自然冷技術,年均PUE低于1.25。此次的浸沒液冷,更是將PUE推向理論極限值1.0。
分享到微信 ×
打開微信,點擊底部的“發(fā)現(xiàn)”,
使用“掃一掃”即可將網(wǎng)頁分享至朋友圈。