當我參觀完畢位于德國斯圖加特的EBC和位于慕尼黑附近的萊布尼茨超級計算中心后,才明白玩轉(zhuǎn)超算需要這么做才好。
構(gòu)建全產(chǎn)業(yè)鏈的HPC用戶體驗和測試中心
聯(lián)想在收購IBM System x之后,也整合了之前IBM System x遍布全球的研發(fā)和創(chuàng)新中心 。在整合這些研發(fā)和創(chuàng)新資源后,也融入到了聯(lián)想全球研發(fā)和創(chuàng)新中心的體系里面。
目前形成了聯(lián)想Briefing Centers(EBC)和 Innovation Centers(IC)兩個強大的創(chuàng)新體系,只不過EBC更多是專注用戶應(yīng)用測試和解決方案演示,IC更多專注技術(shù)研發(fā)和創(chuàng)新。
聯(lián)想在北京雖然也有 EBC和IC,并且北京的EBC也有HPC集群,但是,在HPC集群規(guī)模上還是位于德國斯圖加特的EBC最大,該EBC面向全球企業(yè)級用戶提供測試、應(yīng)用支持服務(wù)。
據(jù)聯(lián)想在斯圖加特EBC的相關(guān)人士介紹,這個HPC大集群,擁有180個節(jié)點,同時采用了GPFS存儲服務(wù)器S4400(包括22\24\26型號)。
其中,需要指出的是180個節(jié)點分成兩個網(wǎng)絡(luò)連接方面,一個采用英特爾Omnipath 網(wǎng)絡(luò)連接,一個采用Mellanox EDR Infiniband網(wǎng)絡(luò)連接。
因為這個HPC集群主要用于測試,配置會有所根據(jù)實際測試和用戶應(yīng)用需求情況而靈活調(diào)整。
比如現(xiàn)在該HPC集群擁有SAP環(huán)境演示,包括針對性的POC和benchmark rack配置,如x3950 X6 、4個x3850、2個x3650 M5。
該HPC集群還針對用戶比較關(guān)心的VMware、SUSE開放堆棧、RedHat開放堆棧而構(gòu)建應(yīng)用環(huán)境,也針對NUTANIX、 SimpliVity、Datacore、 Cloudian、StorSelect等等合作廠商,構(gòu)建聯(lián)想的解決方案,只是有些最新的解決方案展示需要在3-5個月之后正式對外展示出來。
在斯圖加特的EBC,阿明也看到了聯(lián)想現(xiàn)有的比較常見的產(chǎn)品,比如x3950 X6 、 x3850、 x3650 M5等拳頭服務(wù)器產(chǎn)品,同時也看到了來自友商的配件,如英特爾750 SSD 、三星的內(nèi)存和SSD、Fusion-io的閃存加速卡等等,這些配件都是經(jīng)過了聯(lián)想斯圖加特創(chuàng)新中心測試過,然后融入到了聯(lián)想服務(wù)器和存儲產(chǎn)品方案里面。
二
在超算中心中智慧應(yīng)用水冷系統(tǒng)
LRZ超算中心
順著去斯圖加特參觀EBC的機會,阿明也去參觀了德國。
德國國際超算中心
位于德國慕尼黑附近萊布尼茨超級計算中心LRZ現(xiàn)在已經(jīng)作為,為全歐洲HPC用戶提供服務(wù)和技術(shù)支持。該中心總共擁有50PB存儲,16000計算節(jié)點。
LRZ超算中心的IT設(shè)施包括了3層樓6個房間3160.5平米;基礎(chǔ)設(shè)施空間6393.5平米,總共約上萬平米空間。整個超算中心采用了風(fēng)冷和水冷兩個 散熱系統(tǒng)。在整個水冷系統(tǒng)中有一部分也采用了水冷的冷卻器,將水冷系統(tǒng)中的熱水通過冷卻器降溫到系統(tǒng)所需冷水的溫度進行循環(huán)。
另外,目前針對LRZ超算中心中部分設(shè)施也采用了Free Cooling自然水冷系統(tǒng),往后會在整個LRZ超算中心全部采用該Free Cooling自然水冷系統(tǒng)。Free Cooling自然水冷系統(tǒng)就是采用冷熱水自然循環(huán),熱水不采用冷卻器散熱降溫而是讓其自然散熱降溫。
在LRZ超算中心采用水冷系統(tǒng)的第三層基礎(chǔ)設(shè)施中,管道眾多,但冷熱水管道走向分明。針對整個數(shù)據(jù)中心水冷系統(tǒng)監(jiān)測采用了非常慎密的機制,一旦有自動監(jiān)測到系統(tǒng)某點漏水,整個水冷系統(tǒng)會自動關(guān)閉,以保障整個數(shù)據(jù)中心的安全。
整個LRZ超算中心采用兩個大系統(tǒng)組成,每個系統(tǒng)都是采用IB網(wǎng)絡(luò)連接,但兩個計算系統(tǒng)之間沒有連接共享,但存儲部分是共享的。
一是以IBM System x iDataPlex核心組建,采用了第一代水冷系統(tǒng),擁有9216個節(jié)點,總共需要7.9立方米的水在水冷系統(tǒng)里面循環(huán)使用。因為不需要單獨的風(fēng)扇,因此機房比較安靜。
二是以Lenovo NeXtScale WCT 核心組建,采用了第二代水冷系統(tǒng),擁有3072個計算節(jié)點,實現(xiàn)了更高的經(jīng)濟性和制冷效果,沒有風(fēng)扇自然降低能耗、沒有冷卻器也同樣降低能耗、采用軟件管理也可以降低能耗,每年可以總共因為降低能耗而節(jié)約180萬歐元左右。
為此,LRZ超算中心也將兩個大系統(tǒng)因降溫帶出來的熱能再利用,利用系統(tǒng)散熱后的余熱對建筑物進行供暖。不過,這需要構(gòu)建一個配套設(shè)施就能實現(xiàn)。
目前LRZ超算中心擁有50人專業(yè)運維人員,計算和存儲資源面向全歐洲免費開放,但是任何用戶、機構(gòu)、公司想要獲得LRZ超算中心免費計算資源,需要提交一份詳細的使用計劃,LRZ有專門委員會投票來評定是否免費提供,并且評估提供怎樣的支持。
三
構(gòu)建HPC生態(tài)圈贏得前進新動力
任何一個超算應(yīng)用當然離不開專業(yè)的超算中心提供的計算服務(wù),那么超算中心的IT系統(tǒng)和基礎(chǔ)設(shè)施構(gòu)建就非常重要。因為是一個長期的戰(zhàn)略投資過程,因此必須在能耗上考慮更多的問題。
為此,阿明從EBC和LRZ看到了水冷系統(tǒng)對于數(shù)據(jù)中心當前帶來的價值。當你親自站在水冷系統(tǒng)構(gòu)建的數(shù)據(jù)中心里面,自然可以享受到水冷帶來的多種愉悅體驗。
因此,無論是針對EBC還是LRZ,對于用戶的體驗和服務(wù)非常重要。聯(lián)想在存儲、服務(wù)器、網(wǎng)絡(luò)等多個領(lǐng)域可以構(gòu)建基于用戶HPC的需求方案,也是贏得LRZ這樣用戶長期使用和認可的關(guān)鍵。
這種基于用戶在技術(shù)創(chuàng)新需求和具體應(yīng)用挑戰(zhàn)下的HPC生態(tài)體系的構(gòu)建,也是聯(lián)想可以贏得更多前進動力的源泉。同時,一個基于HPC及其相關(guān)測試和應(yīng)用的生態(tài)圈形成,對于用戶也將帶來非常大的幫助。
分享到微信 ×
打開微信,點擊底部的“發(fā)現(xiàn)”,
使用“掃一掃”即可將網(wǎng)頁分享至朋友圈。